新智元报道
编辑:元宇
【新智元导读】近日,「图灵奖」得主Yann LeCun炮轰硅谷主流AI路线,认为通过大模型实现AGI完全是「胡扯」。DeepMind创始人Demis Hassabis认为LeCun混淆了「普适智能」与「通用智能」的概念,两位顶级科学家的争论折射出AI未来五到十年的方向抉择。
刚刚,图灵奖得主与诺奖得主吵起来了!
大约一周前,图灵奖得主、「深度学习之父」Yann LeCun在一期播客中「宣告」了大模型的「死刑」,直接把当下最主流的AI路线骂成了「胡扯」。
Yann LeCun在《The Information Bottleneck》播客中表示,大模型通往AGI的道路完全行不通
在播客中,他没有委婉质疑,也没有持保留意见,而是毫不留情地全盘否定:
所谓通往超级智能的路线,无非就是继续堆大语言模型、用更多合成数据去喂模型、再雇成千上万的人在后训练阶段手把手地「教」系统,顺便在强化学习(RL)上搞点小修小补;在我看来,这完全是胡扯。这条路根本不可能走得通。
作为深度学习的奠基者之一,LeCun推翻了几乎是当下整个AI产业一致下注的方向。
这等于说,你们都别干了,前面死路一条。
作为当前大模型路线的重要领军者,DeepMind创始人Hassabis立刻站出来反驳LeCun的观点。
他认为LeCun混淆了「通用智能」(General Intelligence)与「普适智能」(Uniwersal Intelligence)的概念,忽略了一个核心事实——人类大脑本身就是高度通用的系统,尽管它在具体任务上并非最优。
马斯克转帖并站队Hassabis,认为他说得完全正确。
Hassabis的反驳将问题从「大模型行不行」引向了一个更根本的问题:
我们到底在讨论什么样的智能?
LeCun在Hassabis的反驳帖子下面留言,认为二者的分歧主要在于用词。
他还用数学、计算复杂性来证明自己的观点:
人类大脑本身其实是高度特化(专门化)的系统,因此不能用「通用」来指代「人类水平」。
更让这场辩论富有戏剧性的,是LeCun即将离开Meta,创办AMI Labs,押注一种完全不同于大模型的路线。
而辩论另一方Hassabis,他所领导的DeepMind正在大模型通往AGI的道路上加速前进。
所以,这不只是观点之争,也是关系到未来十年AI技术路线的一场豪赌。
LeCun
大模型并不能实现AGI
在LeCun看来,当前硅谷主流的通往超级智能的路线,在理论和实践上都站不住脚。
他认为这条路线,本质上是在用「规模」掩盖「结构上的问题」。
通过把模型堆得更大,用更多数据喂它,然后再用人工后训练一点点纠偏。
短期内这的确会让模型更强,但这并不意味着你正在逼近真正的通用智能。
此外,他还反对用「通用」这个词去指代「人类智能」。
他认为人类本身其实是高度、甚至极端专门化的。
一个训练充分、拥有无限纸笔的人类大脑,在理论上是「图灵完备」的。
但在现实中,我们几乎在所有计算问题(比如下棋)上的效率都低得惊人。
一个几十欧元的棋类引擎,就能稳定击败世界顶级棋手。
这不是因为人类不聪明,而是因为在资源受限的情况下,我们的计算方式本身就高度次优。
LeCun还提出了一个非常「工程师」的比喻。
在理论上,一个只有两层的神经网络,可以把任何函数逼近到任意精度。
但在现实中,真正有意义的函数,往往需要多到不可接受的隐藏单元。
所以我们才需要采用多层网络,这正是深度学习存在的根本原因。
接着,他又举了另一个例证。
假设视觉系统有大约100万根神经纤维。
哪怕我们极端简化,把信号当作二进制,一个视觉任务也相当于:从100万比特映射到1比特的布尔函数。
这类函数的总数是多少?
2^(2^1000000)。
这是一个几乎无法书写、无法想象的数字。
而人类大脑呢?
假设有10¹¹个神经元、10¹⁴个突触,每个突触用32比特表示,整个连接组最多也只有3.2×10¹⁵比特。
这意味着,人类大脑整体能表示的布尔函数总数,上限不过是: 2^(3.2×10¹⁵)。
这和2^(2^1000000) 相比,这个数字几乎可以忽略不计。
当然,LeCun的推断只是一个信息论意义上的上界估算,而非严格的神经可计算性证明。
但他由此得出的结论也很残酷。
他认为我们不仅谈不上「通用」,而且在可能函数空间里,是极端地、荒谬地专门化的存在。
我们之所以感觉不到,是因为绝大多数函数,对我们来说复杂到完全像随机噪声。
于是,我们把它们叫作「熵」,然后选择忽略。
正因如此,LeCun非常欣赏爱因斯坦那句著名的话:「世界上最不可理解的事情,就是世界居然是可以被理解的」。
他认为宇宙中绝大多数的信息内容都是熵,是那些我们用自己贫弱的心智根本无法理解,所以只能选择忽略的东西。
Hassabis反击
你打错了靶心
Hassabis并没有直接否定LeCun的数学推断,只是说他打错了靶心——混淆了「通用智能」与「普适智能」的概念。
LeCun所否定的只是「普适智能」,即在所有任务上,都达到接近最优的性能。
而「通用智能」则是另外一件事,它是指同一个系统,能否在完全不同的任务之间迁移、学习、适应。
从这个角度看,图灵机是一个很好的理论假设。
Hassabis认为大脑是目前在宇宙中所知道的最精妙、也最复杂的现象(至少到现在为止),而且它们本身就是高度通用的。
受到无免费午餐定理(No Free Lunch Theorem)的限制,任何现实、有限的系统中,都会不可避免地围绕正在学习的目标分布产生一定程度的专门化。
但「通用性」的核心在于:
从理论上讲,一个通用系统的架构,只要给它足够的时间、内存(以及数据),就可以学习任何可计算的东西。
在人们常用的计算理论类比中,人类大脑常被视为近似图灵完备的系统,Hassabis认为人脑和基于Transformer的基础模型,同样都是近似图灵机的系统。
Hassabis也回应了LeCun关于棋手的评论。
他认为人类能够发明出国际象棋本身就是一个奇迹,何况我们还能在此基础上达到像国际象棋棋手之一Magnus Carlsen那样的顶尖水平。
更不用说现代文明的其他一切:如从科学发现到制造747客机等。
Hassabis表示人脑或许并不是严格意义上的最优解(毕竟记忆有限、决策时间也有限),但考虑到人类大脑原本只是为狩猎采集而进化的,它所取得的上述成就堪称不可思议。
因此,Hassabis认为人脑本就是一个宇宙级的「通用AI」,具备无限学习潜能,而人类文明创造力,则是大脑高度通用性的最强证明。
五年后
答案或将浮出水面
真正让这场争论变得引人注目的,是LeCun与Hassabis二人在AI界的巨大影响力,以及他们背后所代表的截然不同的技术路线。
LeCun宣布即将离开Meta后,就马不停蹄地为「下一场战役」做准备。
与此同时,他也选择要远离硅谷的一切。
在他看来,硅谷正被「LLM」洗脑的单一文化,从Meta到OpenAI、谷歌、Anthropic,基本上所有人都在做同样的事情。
因此,在断定大模型此路不通后,LeCun决定创办自己的研究型初创公司AMI Labs,专注于构建「世界模型」。
目前AMI Labs正在以35亿美元估值融资5亿欧元。
这也意味着LeCun把自己整个后Meta的职业生涯都押注在了与硅谷主流AI路线截然不同的一个方向判断上:
大模型不是通往通用智能的正确路径。
与LeCun的选择和判断相对应的,是Hassabis带领的DeepMind实现了AlphaGo、AlphaFold、Gemini……等一系列历史性的突破。
他还因为AlphaFold在蛋白质结构预测领域的革命性贡献,与John Jumper、David Baker共同获得了2024年诺贝尔化学奖。
这些技术突破,在不同任务上采用了不同但可迁移的学习范式,正在一步步探索通往AGI的可能性。
前不久,Hassabis还断言「扩规模」是通往通用人工智能(AGI)的关键组件,甚至可能就是全部路径。
他认为要实现AGI,当下主流大模型必须把「扩规模」(更多数据、更多算力、更大的模型)这件事推到极致。
沿着这一路线,在完成一两次关键性突破后,Hassabis认为我们可能在5–10年后迎来「完整的AGI」。
当LeCun认为靠野蛮堆算力行不通,转而押注「世界模型」时,Hassabis仍然坚信Transformer和Scaling Law是通往AGI的必由之路。
五年后,我们可能会发现其中一方是对的,也许他们会在某个意想不到的地方汇合。
无论结果如何,争论的意义也许不在「普适智能」「通用智能」的名词之争,而是启发我们如何理解「智能」本身。
毕竟,在很大程度上,这还是一条充满未知的探索之路。
参考资料:
https://x.com/demishassabis/status/2003097405026193809?referrer=grok.com
https://x.com/ylecun/status/2003227257587007712?s=20
https://www.youtube.com/watch?v=7u-DXVADyhc&t=153s
秒追ASI