Transformer作者:DeepSeek才有搞头,OpenAI指望不上了
为了填补这块空白,一路从Google到Adept再到Essential AI三次搬家的Vaswani,今年再度迎来巨大转折点——
可惜好景不长,据BloomBerg报道,Vaswani在Adept与某位联合创始人爆发了一次严重冲突。
蓦然回首,在他的精神世界中,其实一直有一块能承载他一切美好期许的土地,这片伊甸园的名字叫做——开源。
Vaswani认为,要想推动AI的边界绝不能靠OpenAI、Anthropic等依靠闭源模式盈利的独角兽。
在他的设想里,AI不该只服务于商业,而是要真正进入教育、医疗等关乎大众的场景,让普通人也能享受到技术红利。
比如,一个偏远地区的孩子也能用开源AI上到最好的课;一个小诊所也能借助开源工具做出最准确的诊断。
简单来说,相较于用RL在后训练打补丁,他们在预训练中取得了突破,并且这个技术可能大幅降低训练成本。
Anthropic做浏览器,OpenAI派出著名产品经理Kevin Weil…….各大模型厂商纷纷下场,亲自探索商业模式。
Scaling Law兴起后,暴力美学的砝码使得AI研究的天平从学术机构几乎完全向企业实验室倾斜。
这种节奏很适合追热点,但科研不一样——要搞出突破性的成果deepseek,你得花几年甚至十几年死磕一个方向。
闭源公司虽手握顶级资源和技术成果,但为了维护投资人的利益,不得不把这些秘密藏起来,以阻碍竞争对手。
但如果有成千上万的研究者和开发者一起贡献代码,整个生态齐心协力,并行推进,也许能克服开源阵营资源匮乏的问题。
这是互联网时代很常见的一种商业模式,典型案例就是浏览器:Google搜索对用户完全免费,取得市场份额后依靠广告回血。
但如果有客户想用这个基座搭建自己的AI,可以向Essential AI购买训练数据和相关产品。
作为《Attention Is All You Need》论文的“一作”,他博士师承的两位导师,都是华人。
在2011年的南加州大学,有两名活跃在自然语言处理(NLP)前沿的教授——蒋伟(David Chiang)与黄亮(Liang Huang)。
蒋伟教授的学士和硕士均就读于哈佛大学,后到宾夕法尼亚大学攻读博士,他提出的分层短语翻译模型曾被Google Translate采用。
黄亮教授本科毕业于上海交通大学计算机系,同样是在宾夕法尼亚大学进修的PhD,主要研究方向是开发高效算法来加速NLP任务,Vaswani是他指导的第一名博士生。
怎么说呢,虽然Transformer八子里没有华人作者,但“功劳簿”里,也并非全然没有华人贡献。
这实际也是另一个维度的开源之力。AI也好、深度学习也好,之所以可以站上浪潮之巅,根本上就在于始终有一个持续交流、开放互助的生态环境。原文出处:Transformer作者:DeepSeek才有搞头,OpenAI指望不上了,感谢原作者,侵权必删!