2024年诺贝尔物理学奖颁奖典礼上,杰弗里·辛顿的自嘲耐人寻味:“我和特里本以为会因解释大脑获奖,结果错了,但这对物理学奖而言足够了。” 他口中的“特里”,便是83岁仍坚守在神经科学实验室的特伦斯·谢诺夫斯基。
四十年前,正是这两位科学家在AI第二个寒冬的僵局中,用一个疯狂的想法劈开了黑暗:把神经网络想象成一团气体。这个源自统计物理学的直觉,最终凝结成玻尔兹曼机——现代深度学习的理论基石之一。彼时没人知道,这个为破解“大脑如何工作”而生的模型,会开启一个由ChatGPT主导的AI时代,更会让两人走向两条互补却同样深刻的探索之路。
辛顿以反向传播算法带领深度学习走出寒冬,成为工程领域的拓荒者;谢诺夫斯基则回归神经科学本源,用数十年时间解剖大脑回路,追问那个最初的命题。如今,当AI狂飙突进,这位见证了神经网络从“异端”到“改变世界”的先驱,或许是最懂当下AI缺失什么的人。他既通晓物理学的简洁优雅,又深谙生物学的复杂混沌,更清楚这扇由他和辛顿共同推开的AI大门后,究竟少了哪些关键碎片。
在与《Hao好聊》的对话中,谢诺夫斯基从历史、当下聊到未来,剖析了AI与人类大脑的本质差距,也给出了关于智能本质的另一种答案:Transformer或许并非通往AGI的唯一路径。以下是经腾讯科技精编的对话内容。
|本节目也有音频| 你可以通过小宇宙平台收听,欢迎关注我们。

一、AI的起点:一团气体点亮的学习革命
郝博阳:计算神经科学是现代AI的基石。在那个年代,您和辛顿是如何用物理学思维突破传统AI局限,找到解释大脑核心逻辑的钥匙的?谢诺夫斯基:我和杰弗里开启职业生涯时,神经网络还是个小众领域,只有斯里尼·甘姆里、杰克·科万等少数先驱,我们都对理解大脑有着相似的直觉。大脑的复杂度近乎无限——海量神经元通过突触互连,这与冯·诺依曼架构的数字计算机截然不同:后者内存与处理单元分离,靠顺序指令运行,而大脑是大规模并行的系统。
当时传统AI最大的缺口,是大脑最核心的学习能力。人类生来就要学习语言、文化和世界的运行法则,这种贯穿一生的学习能力,正是AI所欠缺的。那时我们已经有了单层感知器的学习算法,但多层网络的训练难题始终无解,这就是当时的僵局。
玻尔兹曼机的诞生,恰恰源于一个物理学灵感:如果把神经网络想象成一团气体呢?在物理学中,气体分子通过随机运动最终会达到能量最低的热平衡状态。我们大胆设想:能否将“学习”定义为“寻找能量最低状态”的过程?
循着这个思路,我们找到了一个简单的局部学习规则:让网络在“看到数据”和“自由运行(未看数据)”时分别达到平衡,通过对比两个状态下神经元活动的差异,就能算出突触权重的调整方向。这就是玻尔兹曼学习算法。尽管当时的网络规模按今天的标准来看微不足道,但这正是核心突破。霍普菲尔德网络、玻尔兹曼机在那时陆续兴起,那是一个充满激动与可能的年代。
二、分歧与共鸣:两条路,一种初心
郝博阳:您和辛顿共同开发了玻尔兹曼机,但后来他偏向工程化的反向传播算法,您则坚守生物学领域。这种分歧背后的原因是什么?谢诺夫斯基:这其实是我们合作的核心——互补的背景让我们能碰撞出不同的火花。杰弗里深耕计算机科学与心理学,我则专注于物理学与神经科学,玻尔兹曼机正是这种融合的产物。我们最初都坚信,玻尔兹曼机的局部学习规则就是大脑的工作方式:因为大脑中,一个神经元或突触只能感知直接连接的邻居,根本没有计算机那样的全局视角,学习必须是局部的。
但现在大型语言模型依赖的反向传播算法并非如此——它需要将最终的误差信号精确传回前面每一层,而大脑中根本没有这种专门传递误差的反向线路,显然这不是大脑的学习方式。辛顿沿着工程路径继续前行,与戴夫·鲁梅尔哈特共同开发的反向传播算法,在学习效率和网络规模扩展上更具优势,彻底改变了AI的发展轨迹。
我选择专注神经科学,是想搞清楚大脑的真实运作机制。但这些年来我们始终保持联系,是很好的朋友。更有趣的是,我们发现工程与生物学常常殊途同归:比如辛顿在工程上提出的dropout(随机丢弃)技术,能防止网络死记硬背、提升学习效率,后来我们发现,大脑皮层的突触本身就是概率性的——有时有输入却没有输出,这看似是生物“故障”,实则是大自然的dropout。这种稀疏激活模式不仅学习效果更好,还能降低能耗。
2024年诺贝尔奖授予了我的导师约翰·霍普菲尔德和杰弗里,这是对我们早期工作的认可。杰弗里在演讲中说我们“错了”,是因为玻尔兹曼机没能成为解释大脑的完美模型,但不可否认的是,我们当年将“物理学”与“计算”结合的道路,彻底走通了——看看现在NeurIPS会议的火爆程度,就足以证明这一点。
三、为何生物启发的研究,能得物理学奖?
郝博阳:这很有意思,辛顿因玻尔兹曼机获物理学奖,但在我看来,它更像是试图解释大脑的生物学机制。谢诺夫斯基:玻尔兹曼机虽受生物学启发,但其核心分析和洞察都来自物理学——尤其是统计力学。我们将神经网络的状态视为物理系统的能量状态,把学习定义为寻找能量最小化的过程,这完全符合物理学的核心逻辑。很多人曾质疑这与物理学的关联,事实却证明,物理学正是现代AI的重要灵感来源。
上世纪的AI完全由逻辑和规则主导,也就是符号主义AI,试图把所有知识都写成代码规则。而现在,物理学家纷纷进入这个领域,除了约翰·霍普菲尔德,还有海因茨·泽波林斯基、拉里·阿博特等。几年前我们三人获得神经科学领域的最高荣誉——大脑奖,正是因为我们共同建立了计算神经科学这个领域,它让神经科学家开始理解大脑的整合方式。
上个世纪,神经科学的焦点是单个神经元;而现在,借助大脑计划等技术突破,我们已经能同时记录一百万个神经元的活动,在数十个大脑区域记录数千个神经元的动态。这种全局视角让我们实现了认知升级:智能并非源于某个“超级神经元”,而是涌现于成千上万个神经元的集体协作。这正是我们早期工作中提炼出的核心原理,也是计算神经科学带给我们的最重要启示。
四、ChatGPT的本质:可解剖的“智能碎片”
郝博阳:与您当年构建玻尔兹曼机的时代相比,现在的大型语言模型(LLM)与人脑有什么本质不同?目前研究似乎认为,Transformer架构的工作方式可能并不像人脑。谢诺夫斯基:现在唯一可以确定的是,LLM不是人类。它可能是大脑某种功能的简化版本,但底层机制完全不同——它基于硅基芯片和反向传播,而非生物神经元和化学递质。但这恰恰是它最有价值的地方:我们拥有对它的完全访问权。
大脑的复杂性决定了我们永远无法无损获取每一个神经元的细节,但LLM本质上就是一个巨大却确定的数学方程,我们能掌握它的每一个输入数据、每一个神经元的激活模式,以及动态变化过程——这就是所谓的“机械可解释性”。现在的挑战,就是动用数学、物理学和工程学的全部武器,搞清楚这个大方程为何能以看似智能的方式回应我们。
如今,世界顶尖的数学家都开始投身这个领域,我相信对它的深刻数学理解只是时间问题。更重要的是,一个全新的“神经AI”领域已经诞生:一边是杰弗里这样致力于创造更好AI的工程师,一边是我这样专注于理解大脑的科学家。这是历史上第一次,两个群体能真正对话——因为我们终于使用了相同的数学语言和底层原理,比如神经网络、优化函数。
未来必然是双向启发的过程:通过研究LLM,我们能反过来帮助理解大脑。就像量子力学诞生于20世纪初,却花了数十年才转化为激光等实用技术,基础研究的沉淀需要耐心。我们最终会实现两件事:一是从数学上彻底理解LLM的工作原理并优化它,二是借助这些“通用智能原理”,解释人类自身的思考与行为方式。
五、AI缺失的三块大脑拼图
拼图一:基底神经节——被后置的强化学习系统
郝博阳:强化学习是实现通用机器学习的最佳路径吗?谢诺夫斯基:要回答这个问题,先看看人类大脑的学习方式。人类学习阅读需要几十年,掌握深奥知识甚至要更久;但视觉这种本能能力,却无需刻意学习——这是进化赋予的。大脑之所以能学会阅读、数学等“非本能任务”,靠的是一个专门的区域:基底神经节。
基底神经节位于大脑皮层下方,核心作用是通过“试错”学习一连串动作以获得奖励——比如学骑自行车时,从摔倒到熟练的过程,就是它在发挥作用。它与大脑皮层构成互补系统:皮层负责有意识的认知与推理,基底神经节负责基于奖励的强化学习与行为自动化。人类的成长,正是这两个系统同步发育、相互交织的过程。
但现在的LLM恰恰缺失了这种深度整合的强化学习系统。虽然AI也会用到强化学习(比如RLHF人类反馈强化学习),但通常只在预训练后的微调阶段使用,目的是实现“对齐”——让AI价值观符合人类利益。这种“最后一步才对齐”的模式太晚了,就像人类如果成年后才学习社交规则,必然难以融入社会。
人类的“对齐”从童年就开始了,这是文化协作的基础。语言的进化正是为了小群体社交协作——比如共同捕猎猛犸象,而协作需要认知传递信息,也需要强化筛选生存价值。如果想让LLM更接近人类思维,认知与强化的深度融合,必然是必经之路。
拼图二:神经调质与自主活动——缺失的内在生命力
郝博阳:理查德·萨顿(强化学习之父)提到,现代AI缺乏“元学习”(学会如何学习)和“持续学习”(终身学习而不遗忘)的能力。我们该如何将这些特性融入现有模型?谢诺夫斯基:这不是简单打补丁就能解决的,需要对AI架构进行根本性重组。目前有两个关键的大脑机制尚未被AI借鉴,首当其冲的是神经调质系统。
LLM中神经元的突触连接是静态的,仅通过加权求和处理输入;但生物大脑的神经调质能动态“调制”输入信号——比如多巴胺负责传递“奖励预测误差”信号,只有当实际奖励与预期不符时,学习才会发生,这就是时间差分学习的生物学基础。此外,催产素等神经调质还负责社会整合,比如母亲与孩子的情感纽带建立。辛顿也提到过,这种情感纽带或许是防止AI产生恶意的关键。
更重要的是,AI缺失“自主生成的活动”——这是一种内在的生命力。现在的LLM能高分通过哈佛医学院考试、完成律师资格测试,但只要停止输入,它就会彻底沉默,不再“思考”。可人类即便坐在漆黑的屋子里,没有任何感官输入和运动输出,依然会思考:计划明天的事、回想昨天的经历、反思自己的念头——这是一场持续不断的内在电影,而LLM完全不具备这种无状态下的自主思考能力。
我们需要先从神经科学层面破解这种“自主活动”的机制。虽然目前还不清楚“思考”对应的具体神经回路,但一旦取得突破,就能帮助我们制造出真正“思考”的LLM,而非仅仅做概率预测的工具。
拼图三:海马体——破解失忆的核心钥匙
郝博阳:Yoshua Bengio(图灵奖得主)提出的AGI新定义中,“记忆”维度LLM的得分基本为0。您如何看待AI的“失忆”状态,又该如何赋予它长期记忆能力?谢诺夫斯基:你说得完全正确,长期记忆是目前LLM的绝对硬伤。今天和它进行深刻对话,明天再聊时必须从头开始——除非把前一天的对话记录全部作为输入,而这又受限于上下文窗口长度。更关键的是,LLM训练结束后参数权重就会锁定,只能进行“推理”,无法通过新经验修改权重,这与人类大脑每时每刻都在通过突触连接变化学习截然不同。
长期记忆的核心不是“存储”,而是“筛选与整合”。大脑容量有限,只会选择最重要的信息存储,注意力是第一道过滤器;而真正的整合,发生在睡眠期间——这就需要另一个关键大脑区域:海马体,而LLM中完全缺失这个组件。
海马体的作用是与大脑皮层“对话”:它帮助皮层确定新经验的存储位置,确保新知识不会覆盖旧知识——这就是人类不会出现“灾难性记忆遗忘”的原因。人类需要8小时睡眠来完成这种微调,从年轻时的突触疯狂生成,到成年后的持续优化,正是这种机制支撑着我们的终身学习能力。LLM之所以做不到,不是因为参数不够多,而是因为它只模拟了大脑皮层的一小部分功能,对于生物生存所需的核心机制,它还一片空白。
六、AGI的终极追问:复刻人脑,还是拥抱多样智能?
郝博阳:您觉得Bengio的AGI定义合理吗?很多人认为“模拟人脑”是通往AGI的唯一路径,您认同吗?谢诺夫斯基:Bengio的尝试值得肯定,但“定义AGI”本身就是个棘手的问题,就像“定义意识”一样。“意识”没有公认的科学定义,包含感知、自我反思等多个维度,很容易陷入循环论证;AGI也是如此,每个人心中都有自己的标准。
这让我想到20世纪DNA发现前的生物学:当时人们争论“什么是生命”,提出“生命力”的概念,认为活着的生物体内有特殊物质,死亡后就会消失。但当我们理解了DNA复制、蛋白质合成等生化机制后,就再也不需要“生命力”这个神秘词汇了。我相信AGI和意识也会如此——当我们彻底搞懂智能的底层机制,这些模糊的概念就会被具体的原理取代。
自然界的智能本就多种多样:蝙蝠的回声定位、蚂蚁的蚁群智慧,都与人类智能不同,却完美适配它们的生态位。人类总认为自己是进化的顶峰,这其实是一种傲慢。我们进化出的语言虽然强大,却是一种“钝拙的工具”——既能行善,也能作恶、欺骗。LLM有自己的“数字生态位”,未来它的“意识”必然与人类截然不同。
复刻人脑确实是AI的工程目标之一,但更有趣的科学目标,是理解不同智能的多样性基础。所有动物的大脑都有底层相似性,却又演化出适配各自生存需求的复杂结构。目前的LLM,充其量只是大脑皮层的一个模型,缺失了本能、运动、记忆整合等数百个生存相关的大脑区域。
对工程师而言,“模拟人脑”是个清晰的目标;但对科学家而言,向自然界的多样智能学习,建立能解释所有智能形式的统一理论,才是更有价值的追求。技术的进步可以很快,但对智能的真正理解,可能需要几代人的耐心——这是这个AI狂飙时代,我们最该铭记的清醒。
本文来自微信公众号: 腾讯科技 ,编辑:徐青阳,作者:博阳
