兰 亭 墨 苑
期货 · 量化 · AI · 终身学习
首页
归档
编辑文章
标题 *
URL 别名 *
内容 *
(支持 Markdown 格式)
看了高赞的预测人工智能等的言论就想笑,因为鄙人是真的因为工作原因被逼着看了很多paper、不公开的商业报告、专利等"预测"了人工智能,我最终研究了一些非技术的东西,发现人工智能是不可预测的。先省流给个结论吧:未来计算机的人才的识别难度将会大大提升,以往可能出几道编程题或者leetcode上找几道题为难下码农,未来五年内计算机行业的人才市场因为人多人才少识别难度大将会变得异常混乱。刷比赛,刷文章,刷学历然后当技术行业的网红能让半瓶子水的面试官给你机会的。首先呢,即便是业内人士,大部分也是无法预测行业趋势的,你当年yolo玩的炉火纯青,觉得CV这块也不过如此的时候,而NLP就是一帮脑残烧钱搞没啥用的时候,chatbot都是靠if else来写的,搜广推小模型的普及让你觉得AI也就这样了....你能预测出chatgpt和deepseek么?或者你是玩mlsys的,你把一些算子性能优化的很漂亮,而且能证明这个算子是广泛应用的时候,你有毛的能力来预测未来AI的走势呢?其次呢,技术的走势其实和外部环境关系很大,而外部的环境是多变的。为什么deepseek能出现在中国,而且里边的MOE,MLA这些技术会出现,我印象深刻的是MOE三年前公司在组织paper review的时候,发现这问题那问题的,但是现实就是中国用了。其实这和美国的制裁是息息相关的,美帝当年制裁的时候想的很美好,原创性的算法在美帝做,然后美帝卡住算力和算力扩展的脖子(大规模训练,H100),但是你中国应用和推理的钱我也赚的,毕竟你市场那么大,有钱不赚王八蛋,于是美帝AI客户拼命买卡搞训练,中国只能买显存大而快但是互联一般般的H20(定位为推理的)卡,最后搞出了deepseek,我简单不太准确的解释下:deepseek里最重要的MOE和MLA,其实MOE就是减少了并发计算量,MLA就是在数据搬运是瓶颈的阶段,提取了一个矩阵来缓存,然后数据就得到了压缩(和这个矩阵一乘来恢复大数据量),这样数据传输量变小了,代价就是计算多了,但是这个步骤是数据搬运是瓶颈,所以计算多了一步,其实也就还好。H20多算一步性能也没怎么变差,也就是说这里边你H100未必比H20更好....最后我在讲两个故事吧。故事一:之前我们有个同事巨不靠谱,但是他非常喜欢抄各种技术的东西然后囫囵吞枣的扔到网上,久而久之他就变成了我们行业的技术大神,还出书了,再久而久之,还和一些二三流学校合作发了一些没有AE的论文,现在他的影响力已经到了google scholar,一年居然有几篇CCF C甚至偶尔有CCF B的文章有他的署名....所以这个市场上,百分之九十的人都不太懂,你需要的最大的能力是让这些不懂的人觉得你懂,要让他们觉得你和其他未来可能要送外卖的毕业生不一样,这个不一样是加分的地方,而不是你懂但是你无法和他们解释清楚真理。除非你已经牛逼到身边全是靠谱的人。故事二:算是对一些高赞的人回应吧,当年我毕业实习的时候,去了一家高端路由器代理,然后呢当时里边的人都是学历还不错的人,有一次收到一个大专毕业8年,然后在某三线城市机房里当外包的简历,这个候选人可能真的是一线工作人员,见过一些问题,敲命令也比我现在码知乎还快,一面技术面的时候,这哥们还成功的diss了面试官,一个毕业两年的南邮的小哥。然后就是技术合伙人面试,技术合伙人算是90年代的CCIE吧,而且真的在美帝的cisco干过,国内某H开头的合资企业也干过技术领导,可以说是一个真正的大拿。大拿和他随便聊了聊协议的东西,最后大拿就问了他一句话:直流设备的电压多高.....然后这哥们面试就挂了....大拿的意思就是他最看重的是你把书读薄,新出一个协议能迅速搞明白然后很快通过操作掌握,而不是永远是在复制别人的思路,外加网上看一些不靠谱的野路子,因为很多客户其实要的是解决方案,这些方案要解决的是真实的业务问题,要么帮运营商赚钱,要么帮运营商省钱,而不是书本上的协议和培训班告诉你的协议配置出了bug怎么办.....再回应一些高赞看法:软硬结合会大放彩的:你知道统信操作系统的人工资多低吗?软硬结合除非特别牛的人,一般都是IT行业的生化环材,搞嵌入式的就是你们的前辈2.非常悲观的:IT行业本来就分方向,赢者通吃,输者35岁送外卖。不止现在如此,过去也是如此。
配图 (可多选)
选择新图片文件或拖拽到此处
标签
更新文章
删除文章