20年研究了一个“假问题”!985高校学部部长重启学术人生

文|《中国科学报》记者 孙滔

2016年发生的两件事,让心理学家刘嘉奋斗了20年的学术信仰崩塌了。

第一件事是,世界顶尖围棋高手李世石以1比4败于AlphaGo。这让刘嘉猛然发现,“一个全新世界正缓缓拉开帷幕。”

第二件事则是刘嘉的亲身经历。在他参与策划与制作的江苏卫视《最强大脑》节目中,面对通过幼年人脸识别20年后的成年人、双胞胎识别、现场实时照片识别等挑战,人类顶尖选手败于AI。

他本来自信满满。早在2002年,他在美国麻省理工学院(MIT)进行博士学位答辩之际,就在第二张PPT里写道,“现在最先进的机器识别面孔的正确率只能是随机水平,而人类能够在一秒钟识别上百张面孔。为什么人类如此伟大?为什么人类如此聪明?为什么机器如此愚笨?”他的答辩题目是《面孔识别的认知神经机制》。

在策划《最强大脑》节目之初,他的判断是,肯定人类更厉害,可以不费吹灰之力碾压AI,这次要“让人类的智慧在镜头前痛痛快快地羞辱一下AI”。

当AI战胜人类的那一刻,他在沮丧之余顿悟:他一直求索的面孔识别问题并非人类智能的本质所在,原来自己围绕一个假问题奋斗了20年。

他决定躬身入局,去寻求并攻克真正的问题。为了新的目标,刘嘉辞去了北京师范大学心理学部部长的职位。他要重返实验室,只想做一个全职科研的普通教授。

刘嘉

1 新的信仰

时间拨回到1997年。刘嘉刚到MIT脑与认知科学系开始攻读博士学位,他和导师南希·坎韦施有一则这样的对话。他说,自己想做挑战大的课题。南希告诉他,视觉是人类所有的感觉系统中最主要的信息来源,有60%的大脑区域都与视觉有关,而在所有的物体识别中,面孔识别是最难的。

刘嘉觉得自己一下子抓住了重点:面孔识别就是那颗皇冠上的明珠,他要做那个摘取明珠的人。从此以后,5年读博生涯,以及回国之后的15年间,他一直都在深耕面孔识别。他想知道人是怎么识别面孔的、大脑的什么区域在执行这个功能,以及它的过程。

在读博期间,他发现了重要的结果:当人们看见一张面孔,大脑会用100毫秒把面孔和非面孔区分开,然后才会把这个信息传输到一个专门用于面孔加工的区域,之后再用70毫秒把这个面孔识别出来。

这就是面孔识别的独特之处,跟其它物体的识别是完全不同的。这个功能无比重要——只有在人群中迅速找到母亲的面孔,婴儿才能提高自己的生存概率。

他们的这篇研究文章发表在《自然—神经科学》,迄今引用接近900次。

然而,他一直以为的最本质的智能问题竟然被AI攻克了。更何况,2016年的AI在人们看来还特别弱智。显而易见,他选错了方向。

他追求的是终极问题,面孔识别并不是。

他要的那个问题是什么呢?当然就是刻在阿波罗神庙的那句“认识你自己”:我们是怎么理解自己的,我们是怎么理解这个世界的,它背后的第一性原理是什么?

44岁的刘嘉开始寻找新的线索:在“人猿相揖别”的数百万年里,人类主要在进化以语言为载体的思维能力,所以语言和思维才是最为重要的。

2022年11月30日,大语言模型ChatGPT面世的那天,刘嘉正发着烧,有朋友给他发了一个GPT-3.5的链接。最初提问的问题他已经不记得了,但他立即意识到这大概就是通用AI(AGI)的雏形。震惊之余,他的病都好了一半。

再延伸出去,他得出了一个更为震撼的结论:那一天是AI进化史的分界线。在此之前,AI只是一个工具而已;在此之后,地球上有了另一个能理解人类的“物种”,人类不再是孤儿了。

刘嘉说,“如果达尔文看见这个时刻的话,他一定会说,一个新的生命诞生了。”那么,如果脑科学加上人工智能,会不会在某一天造出一个数字人类大脑呢?

彼时,他的身份已经是清华大学基础科学讲席教授、北京智源人工智能研究院首席科学家。

他是如此激动,以至于为此写了一本题为《通用人工智能:认知、教育与生存方式的重构》(下称《通用人工智能》)的书,并于今年6月份出版。在自序中,他写道,“把这近十年中我的摸索、挣扎、领悟和疑问,攒成了文字,与你分享”。

2 一面镜子

如果说ChatGPT的问世给了刘嘉新的信仰,那么2024年诺贝尔物理学奖颁发给机器学习则给了他极大的信心,因为作为获奖者之一的“深度学习之父”杰弗里·辛顿正是心理学出身。

不仅如此,辛顿的履历也让刘嘉有极大共鸣:剑桥大学入学后仅一个月,辛顿便厌烦了物理学“每天12小时实验与誊写笔记”,他愤而辍学。一年后重返学校,他开始学习生理学,又很快产生了不满,因其只关注轴突电生理而不讲大脑工作机制,于是转向哲学。1970年,他再度转身心理学并获得学士学位。剑桥大学毕业后,辛顿成了一名木匠。这期间,他读到了加拿大心理学家唐纳德·赫布的《行为的组织》一书,深受触动之余,他决定用仿生方法研究大脑智能,之后进入爱丁堡大学攻读博士学位。

这样的人生简直就是刘嘉的一面镜子,他也曾在人生追求上摇摆过。

刘嘉是重庆涪陵人,他小时候经常在夏夜铺着凉席睡在室外,仰望星空的时候他就好奇宇宙的广阔面貌,这导致他在高中一直想读天体物理专业。不过他的想法因为一本关于弗洛伊德的传记改变了。他忽然觉得心理世界比宇宙更为广阔,更为复杂,他要去学心理学。

1990年进入北京大学心理学系后,他才发现这门学科太“文科”了,充满了哲学思辨以及没有逻辑的死记硬背,那远非他想象中的科学,于是他在本科期间学了北大计算机系的核心课程。他还辅修了无线电系的电子学与信息系统,皆因大脑也是一个信息加工的系统,他觉得学信息论或许会帮助他理解大脑。

他最终坚持完成了心理学的学业,并在读完北大认知心理学硕士后,奔赴麻省理工学院攻读博士学位。

其实,刘嘉在大学做的事情远不止上述。按照他的说法,“红道”“黑道”和“黄道”他都试过了,最终才回归心理学。

所谓“红道”,就是走仕途。他大一的时候竞选过北大的校学生会主席,在第二轮即被淘汰出局。在这个过程中,他只感到了累,完全找不到“high”的感觉,他就明白这条路不是自己想要的。

“黄道”跟挣钱有关。在1995年硕士一年级的时候,他就靠写软件挣到了不少钱。他不会理财,有了钱就只会带朋友去北大南门“胡吃海塞”“喝了就吐”。他仍然没有“high起来”。

他决定坚守“黑道”,也就是做学问。这条路虽然很累,报酬也很低,但“越做越high”,这就足够了。

刘嘉最早接触AI是1994年。他用传统人工智能方法符号AI做了关于人格测量的专家系统,并获得了北京大学“五四青年科学奖”一等奖,他是唯一获奖的本科生。他那时看到的AI远不是他期待的,直到他听了一位刚从日本回国的博士讲的人工神经网络的课,才感受到了“AI的灵动”。可惜那时的电脑算力太小,一台386台式机的算力都远远比不上现在的智能手机。

之所以奔赴MIT读博,其一是因为刘嘉通过互联网知道了人工智能之父马文·明斯基,后者正是在MIT人工智能实验室任教;其二是他读了已故计算神经科学领域先驱大卫·马尔关于视觉的著作。在那本书中,这位MIT教授用了一堆数学公式讲述人类为什么能看见这个世界。刘嘉顿生崇拜,认为认知科学就应该是这样的,那才是自己应该为之奋斗的方向。

可惜的是,当刘嘉来到MIT见到马文·明斯基,在聊起人工神经网络时,这位大佬却一脸消沉,告诉刘嘉这个方向不值得做,然后建议他回归脑科学研究。

当乘坐冷冰冰的电梯从马文·明斯基办公室出来,他的心绪一如马文·明斯基般消沉。他还是听从了大佬的建议,再也没碰AI。

刘嘉在北大读书期间。

3 “理解智能的本质”

其实刘嘉对AI的兴趣一直没有消亡。以前的AI太弱智,没法做好玩的事情,当AI不再弱智了,做事的时机来了。

回顾最近十年的学术之路,回归实验室后的刘嘉并不顺利。他反思,自己犯了多个错误。

第一个错误是,为了追求可解释性,他使用的人工神经网络的参数量太小。他没有关注OpenAI的工作,而是追随了DeepMind XLand的工作,甚至在2020年6月GPT-3问世之后,他曾批判那是个试图靠堆参数堆出智能的“傻大粗”。他坦承,自己错得格外离谱。

这个错误,是他在2023年才认识到的。毕竟神经网络太小时,不可能具有真正的智能,人们没办法指望从只有302个神经元的秀丽隐杆线虫中得到关于智能的研究结果。

第二个错误是跟风。他也想做基于Transformer的大模型,直到2023年年底,他才想到了生物进化的维度。

他发现,更多的神经元数量并非高级动物区别其他动物的唯一特征,否则神经元数量远多于人类的大象和鲸会比人类更聪明,那么进化就成了他参照的智能法则。他要回到自己擅长的领域里,把脑科学和AI结合起来,看看智能是如何进化而来。因为他的第一性原理是“进化不会干无聊的事情”。

与如今流行的AI for Science不同,刘嘉想要做的是,让脑科学帮助AI来发展,就像当年辛顿一心要让机器模仿大脑的运作机制一样。

刘嘉看到了当下大模型的短板,那就是,它只能做从1到100的事情,而对从0到1的颠覆式创新的事情无能为力。所以在他看来,如今最该攻破的反倒是脑科学,只有把脑科学的根本问题解决了,才能启发下一代AI的诞生。

刘嘉在做什么呢?“理解智能的本质”,他们的口号简洁明了。

在刘嘉的实验室,《中国科学报》记者见到了大量开着颅窗的转基因小鼠。他们正在利用宽场的单光子钙成像技术记录小鼠视觉皮层的上万个神经元的活动。刘嘉想知道,当小鼠在做某个认知任务的时候,这些神经元构成的生物神经网络是怎么活动的?这样的研究或许能启发新的人工神经网络算法。

就在前两年,他们课题组还在以狨猴为研究对象。不过他很快发现,每次能记录的猴子神经元有限,于是他转向了小鼠。这样他就能一次观察上万个神经元的活动,只有如此,他才能把研究结果和人工神经网络作对比。在做神经元成像时,同时记录100个神经元和同时记录1万个神经元,得到的结果是完全不同的——就像大模型的发展一样,规模会带来认知功能的涌现。

1998年,刘嘉在MIT。

4 “信仰之跃”

如今的刘嘉不出差,不参加各种会,“老老实实在第一线做研究”。

刘嘉这种坦然的姿态传承自他的导师南希,后者是一位个性十足的科学家。当年回国之际,刘嘉问导师,建立自己的实验室有什么诀窍。南希告诉他两个关键词——tough and fair。刘嘉不解:fair是公平的意思,那tough是对人严厉吗?南希说,其实是simple and straightforward(简单和直接)的意思。

刘嘉马上明白了,导师的意思是:不需要转弯抹角、绕来绕去。若要去申请经费,拿文章、拿实验提案就足够了;若是学术观点和别人不同,就可以直接表达出来。fair则是对事不对人,科学面前,学生、老师人人平等。

但是,tough and fair并不意味着特立独行。他意识到,DeepMind战胜麻省理工学院与哈佛大学的布罗德研究所,因解析蛋白质结构拿到了2024年的化学诺奖,充分说明了传统的小而美的实验室和传统的老师、学生的单线合作研究模式已然失效。

在AI时代,科学必须得像 DeepMind 那样以工程化的方式来推动,即Engineer for AI for Science(基于工程架构的人工智能助力科学研究)。跨学科的合作,已经成为脑科学+AI发展的必要条件。

2024年,他开启了“小曼哈顿计划“,即在学校的支持以及已有心理学基础上,创建了融心理学、脑科学和人工智能三个交叉学科的心理与认知科学系,开始了一段新的征程。

“信仰之跃”,这是刘嘉为辛顿写的小传的题目,其实那是写给他自己的。

辛顿是刘嘉的最大偶像。当辛顿攻读博士学位之际,正是神经网络研究的严冬。马文·明斯基在其著作《感知机》中严厉批判了由神经网络通向AI的道路,断言“研究神经网络是一条死胡同”。这时候,辛顿的导师也背弃了神经网络,转投符号主义AI阵营。然而辛顿却执着于神经网络研究,成了远离经费、导师和学界支持的孤勇者。

辛顿的信仰是坚定的,“没有理由认为人工神经网络做不到我们能做的一切”。早在剑桥读书的时候,他就宣告:“理解大脑的唯一办法,就是亲手造一个出来。”这是他的信仰。

当年刘嘉辞去了心理学部部长的职位,这在很大程度上有相似之处。

他把这个信仰的根源归纳为延迟满足,这种延迟满足甚至是超越生命周期的。刘嘉经常告诉学生,做事情要考虑时间尺度,要把它放到5年、50年,甚至超越你的生命的尺度上来看待其价值。

在方法论上,他极力推崇的一个策略是,进攻是最好的防守。

他是国内使用功能磁共振研究大脑功能的先驱之一。当年他刚到MIT读书,导师就开始用功能磁共振研究大脑功能。刘嘉于2002年加入中国科学院生物物理所,参与组建了国内第一台用于脑科学研究的磁共振设备。2006年到北京师范大学后,他主导建设了国内高校第一个磁共振脑成像中心。

他没有满足于这些成就,反而跳出了舒适区,再也不碰磁共振了,原因是其空间和时间分辨率太差,完全不能满足人工神经网络研究需要。随后,他又从人的研究转向了猴子研究,之后再次转向了小鼠的研究。

在《通用人工智能》一书中,他如此总结自己的学术思想:如果只是沿着熟悉的道路前进,虽然容易且安全,却可能让你陷入认知的局部最优陷阱——你以为自己已经理解了整个世界,实则只是固守在一个狭窄的角落。

这就要不断迭代自己:在开始训练前,都必须明确一个目标函数。这个函数定义了模型希望达到的理想状态,而训练的全部意义就在于不断优化参数,让模型越来越接近这个目标。

人生也需要定义目标函数。他说,不用执着于精确地规划未来的每一步,那样反而可能陷入过度分析而迟迟无法行动。你需要做的是“强行起飞,粗糙开始,空中加油”,找一个大致正确的方向,然后不断调整、不停向前。

这正是刘嘉实现信仰之跃的路径。

本文部分内容参考了《人文清华播客:对话清华学者》的刘嘉专访,人物图片由受访者提供。

阅读全文

本文转载自互联网,如有侵权,联系删除