查看原文
其他

刘嘉 | 脑科学与人工智能

刘嘉 苏州大学学报教育科学版 2024-02-05


心理学的底层逻辑与框架(笔会)

The Underlying Logic and Framework of Theoretical Psychology (Forum)


 特约主持人:张建新

中国科学院心理研究所研究员、博士生导师


主持人语:


底层思维缘起于“第一性原理”的说法。所谓“第一性原理”既可以说是物理学原理,也可以说是哲学原理,但它归根结底是一种思维方式。本笔谈邀约理论心理学界几位思想活跃的年轻才俊,并特邀请到清华大学心理系刘嘉教授,请他们畅谈“理论”“原理”“纲领”和“范式”等底层逻辑和框架对心理学研究的重要作用。


总体而言,人们现在已经开始认识到,“如果没有某种概念框架,个别观察结果在很大程度上仍然是孤立的,其意义也往往是神秘的,甚至是无用的”。进行底层理论思考,是心理学必修的功课。比如,普通心理学知识告诉我们,物质决定精神,大脑结构决定大脑功能;但是,若理论的思考告诉我们,反过来的顺序,即功能先于结构的可能性也是极大的,这是否会促使研究进入一个新的方向?一头扎进认知神经科学实验中,而不去理会认知科学哲学已经经过了三代理论的更迭,甚至根本不去想未来发展的可能路径,使我们的研究多是重复和验证他人,而极度缺乏创新性。人工智能的发展也是如此,只知道使用现有的软件平台和程序做“码农”,而不去关心最底层的“0、1”二值逻辑这一智能科学的第一性原理,自然也会使我们在人工智能领域只能做个小跟班,只做改良之事,而无创新之能。当西方心理科学被引进中国之后,始终还没能很好地与中国文化和中国人血脉融合起来,因此当下的心理学知识仍然缺乏“本土”力量。我们或许可以从中国儒释道关于心性的哲学思辨中汲取本土的力量,比如建构起一套以道德为本的儒家正念体系心理学学说。当然,更值得中国心理学认真思考的是,马克思主义哲学在心理学学科理论中的当代布展,在中国几乎是内隐地缺席的。我们对西方心理学主流方向是否太过于无批判地追逐了?


希望心理学研究者沉下心来,能够时不时地跳出“庐山本地”,多加关注“理论心理学”,去熟悉和把握科学与人文背后存在着的底层逻辑和底层框架,以便识得“庐山全面目”,从而源源不断地做出创新性的心理学研究成果。



脑科学与人工智能


刘嘉

清华大学脑与智能实验室

清华大学社会科学学院

心理学系教授


 一、基石:

用还原来寻找规律性的简单 

   

人工智能是一个宽泛的概念,而在目前人工智能中占主导地位的是人工神经网络(Artificial Neural Network)。之所以被冠以这个名字,是因为它的核心单元是对生物神经元的仿真。生物神经元包含三个部分:树突、胞体和轴突。树突用于接收输入的电信号;胞体则整合输入信号并产生输出信号到轴突;轴突将电信号传导到另一个神经元的树突。如果我们用还原论的方法对神经元进行抽象,并进行形式化表达,那么就是在20世纪40年代提出的著名的MCP模型。



在MCP模型中,I代表输入,W代表权重。输入乘以对应的权重并求和后,再根据阈限T进行二值化,得到0(不发放脉冲)或1(发放脉冲)的输出。从表面上看,这是数学对神经科学的一种简化,但事实远非如此。提出MCP模型的麦卡洛克(W.S.McCulloch)和皮茨(W.Pitts)并非数学家,而是心理学家和逻辑学家;发表这个模型的论文题目是《神经活动中内在思想的逻辑演算》(A Logical Calculus of the Ideas Immanent in Nervous Activity)。在他们看来,设置阈限将输入乘以权重求和后的结果转化为0和1这一过程,不是简单的数学游戏,而是触及了人类思维的本质。为什么他们会这么认为呢?


亚里士多德在《形而上学》一书中提出了几个粗浅的逻辑学定律,其中一个就是我们所熟知的矛盾律,即“A必不非A”。简单来说,就是两个对立的陈述不可能同时为真。这个看似简单直白的逻辑学定律却成为推动中世纪科学发展最为关键的因素之一,促成了伽利略著名的斜塔实验。自有人类文明以来,人类就在思考物体究竟是如何运动的。亚里士多德根据他的观察总结出了运动的定律,重的物体要比轻的物体运动更快。但是伽利略不这么认为,众所周知的就是伽利略的比萨斜塔实验。


事实上,比萨斜塔实验可能是后人杜撰的一个充满戏剧性的展示,而轻重不同的物体同时落地的运动律是伽利略通过纯粹的演绎推理而推导出来的。在《两种新科学的对话》一书中,伽利略这么写道:如果亚里士多德的运动律是正确的,那么假设重的物体掉落速度为8 m/s,轻的物体掉落速度为4 m/s。那么,当重的物体与轻的物体绑在一起下落时,会发生什么?一种可能是轻的物体因为落得慢,会阻碍重的物体快速下落,此时轻的物体是减速器。另外一种可能是,两个物体绑在一起,它们的总体质量会变得更大,而根据亚里士多德的运动律,它们会落得更快,此时轻的物体则是加速器。但是,根据亚里士多德的矛盾律,轻的物体不可能既是加速器又是减速器(A必不非A)。由此反证,轻的物体必然会和重的物体以同样的速度下落。伽利略用亚里士多德的矛盾律证伪了亚里士多德的运动律,这是因为矛盾律是比运动律更为底层的定律。正因如此,即使在当年实验条件完全不具备的情况下,伽利略仍大胆地宣称:“羽毛将与铁球以同样的速度落地!”


显然,这个论断是反直觉的,但是即使是在众人的嘲讽下,即使是在被教皇的终身囚禁之中,伽利略至死都没有改变自己的论断。这是因为,通过演绎推理得到的结论,只要推理的原点(即矛盾律)没有错,那么结论就不可能错,因为这是科学!如果实验与结论不符合,那么只能是实验没有做对。当人类第一次登上月球,宇航员阿姆斯特朗才终于做对了实验——在没有空气阻力的月球上,羽毛与铁锤同时落地。此时,离伽利略逝世,已经过去了300多年。


在矛盾律的指导下,伽利略推翻了亚里士多德通过归纳推理得到运动律。在伽利略运动律的基础上,才有了后来的牛顿力学、爱因斯坦狭义相对论等伟大的理论。可以说,这些伟大的理论都来源于矛盾律这一逻辑原点,而这个逻辑原点被牛顿称为第一性原理。那么,矛盾律是正确的么?虽然矛盾律是亚里士多德在公元前提出来的,但是到19世纪中叶,英国数学家布尔才首次通过数学的形式化证明来验证了矛盾律:首先假定1代表全集,0是空集;*是运算符,代表交集。假设A是一个集合,那么A*A代表A和A的交集,即A本身:A=A*A。通过移项,可得到A-A*A=0;提取公因数A,得到A*(1-A)=0,即A和(1-A)的交集为空集。因为1是全集,那么(1-A)就意味着非A。所以A*(1-A)=0的意思就是“A必不非A”。布尔将他所发明的逻辑演算,写入了一本书。这本书的书名并不是诸如众人所想的《逻辑学》这样的名字,而是叫作《思维的法则》。因为在发明形式化逻辑的布尔的眼中,逻辑学是一门关于思维的科学,而0和1是思维的最基本单元。此后,图灵进一步从数学上证明了任何可能的逻辑运算,即所有可能的思维,都可以用0和1这两种状态来表示。而任何具有思维能力的机器,包括我们人类的大脑,则被广义地称为图灵机。


从这个角度来看,构建神经元MCP模型的必然是心理学家和逻辑学家,而不是数学家或者计算机科学家,因为MCP模型本质上反映的是思维的工作方式,因此它必然是人工神经网络的基石。更进一步,计算机语言之所以由0和1构成,是因为人类的思维基石是二值的!只有严格地按照逻辑学的路径延伸,计算机才有可能实现人工智能。布尔逻辑通过对人类思维法则的解析,为计算机、互联网、人工智能的出现埋下了种子。不夸张地说,布尔逻辑是智能科学的第一性原理。


所以,科学的逻辑非常简单直接,就是不断地下沉去寻找更深层次的逻辑原点,即用还原来寻找规律性的简单。一旦我们找到这个规律性的简单,那么我们就可以“一生二,二生三,三生万物”了。



二、通用智能:

用构造来重建可控制的复杂


探寻人工智能的逻辑原点,并非是我们的初衷。我们的初衷是要创造出类似甚至超越人类智能的通用人工智能(Artificial General Intelligence,AGI)。我们需要自下而上,从逻辑原点出发,创造出可控制的复杂。这一点,可以从人工神经网络诞生之初到现在的发展脉络中清晰地看到。


1957年,心理学家罗森布拉特(F.Rosenblatt)创造了第一个由两层神经元组成的人工神经网络,叫作感知机(Perceptron)。他将感知机定义为一个感觉、识别、记忆和反应都像人类思维的机器。但是,感知机本质上是一个线性模型,无法解决异或问题,因此很快被研究者忽略。而对这个问题的解决,要等到30年后的1986年,辛顿(G.Hinton)等人提出的回传算法(Back Propagation,BP)。遗憾的是,回传算法在当时并没有得到应有的重视。直到2006年,辛顿成功解决了误差在回传时的梯度下降问题,使得多层非线性神经网络变得实用。自此,人工神经网络开始向“大”发展,即大模型(多层多参数)、大数据(多模态的海量训练数据集)和大算力(超级计算机),如著名的由OpenAI与微软联合开发的GPT-3(Generative Pre-training Transformer)。GPT-3是一种生成式语言模型,它通过对不同的书面材料集与长篇连载文本预训练,以获取关于世界的知识。GPT-3是巨模型,架构非常复杂,共有约1750亿个参数,用于训练该模型的数据集非常庞大,例如英语维基百科的全部内容(约600万篇文章)仅占其训练数据集的0.6%。最后,来训练这个模型的超级计算机是微软专门打造,其算力位列全世界超级计算机中的第五名。还有一点世人所不知道的,那就是费用高昂,训练一次GPT-3的费用高达460万美元。但是,这一切都是值得的,GPT-3不仅可以回答我们的各种问题,它还可以编程,甚至诊断和治疗疾病。


像GPT-3这样巨模型所具有的高智能不禁让我们开始畅想,人工智能到底能够发展到什么程度?当人工神经网络越来越庞大时,我们是否可以制造出类似人脑的人工大脑?事实上,已经有科学研究表明,人工神经网络越复杂(层数越深、参数越多),它的表现就越像人类大脑。因此,现今几乎所有的人工智能研究机构都在致力于提升模型的“大”,以期有朝一日人工神经网络能够超越我们的生物神经网络。甚至,谷歌公司首席未来科学家库兹韦尔写了一本预测未来的书,叫作《奇点临近》,所谓“奇点”就是人类文明发展的断裂点。在书中,库兹韦尔描述了一个无限美好的场景:未来人工智能会帮助我们摧毁病原体、纠正DNA复制中的差错、消灭毒素,让我们享有更长的寿命。更重要的是,我们可以逐步将自己的智力、性格和技能等转移到非生物的硅基载体上去,由此人类可以从“生物的我”变成“计算机的我”,实现永生之梦!更让人震惊的是,库兹韦尔指出,“奇点”将会在2045年来到,届时所有人类将实现永生之梦,而现今世上的大多数人都将成为这一预言的共同见证者。


但是!令人遗憾的是,对GPT-3的科学研究表明,这些美好而又浪漫的预言只是脆弱的一厢情愿。例如,心理学家问GPT-3:“How many eyes does my foot have?”对人类而言,这是一个愚蠢的问题,甚至小孩都不屑回答,但GPT-3却会一本正经地回答道:“Your foot has two eyes.”也就是说,GPT-3根本没有理解眼睛这个单词的含义,它只是简单地将眼睛与我们身体联系在了一起。心理学家进一步分析道,我们之所以觉得GPT-3智能,是因为我们问了它智能的问题,即GPT-3所了解的知识都是从人类已有的智能中习得。一旦我们问它一个不在人类已有智能库中的问题,GPT-3就只会给出一个愚蠢的答案。这正如爱因斯坦所说:“Any fool can know.The point is to understand.”即便是人工智能能够理解,它的理解也与人的理解存在巨大的差异。例如,当给人工智能输入一段一个人从高处摔到在地面的视频,目前的人工智能可以输出对这段视频的精准描述:一个人从高处摔了下来。但是,当人类看见这段视频,第一反应却是不忍和同情。这个差异是因为人有同理心,而人工智能则没有。同理心并不是一个可有可无的情感,它对于人之所以为人极为重要,自闭症患者的最主要问题之一就是同理心的缺失。人工智能之父明斯基(M.Minsky)专门强调情感是机器拥有智能所必需的,他说:“问题不在于机器能否拥有情感,而在于不拥有情感的机器是否智能。”


除共情能力外,人类还拥有目前人工智能所不具备的推理能力。例如,在好莱坞的电影里经常有这样的场景,一个黑手党走进一家糕饼店对老板说:“你的这个糕饼店真漂亮,如果意外发生火灾把它烧掉就太可惜了。”显然,黑手党并不是在好意提醒老板做好消防工作,而是在暗示老板乖乖上交保护费,否则就要来搞破坏。而这弦外之意,显然不是现在人工智能所能推理的。而我们之所以能够毫不费力地做到此事,是因为我们不会仅仅从字句表面意思来理解,而是会深挖其背后的意义。在日常生活中,我们总是在寻找因果以求逻辑自洽,而刻意避免把所有的事情都归因于随机。


从这些例子可以看到,现今人工智能的水平与真正的人类智能相比还有很遥远的距离。这是因为光鲜神奇的人工智能背后,本质还是和机械运作的机器一样,缺少“灵性”。那么,什么是智能的本质,我们如何才能让人工智能也能达到人类智能的水平呢?




三、未来之路:

脑启发的人工智能


人工神经网络之父辛顿认为,现今的人工智能之所以无法与人类智能比肩,是因为它还不够“大”:人脑有100万亿个参数,而GPT-3模型却只有1 750亿个参数,二者之间相差了3个数量级。对于辛顿而言,神经网络的大小很重要,只要模型足够复杂,参数足够多,人工神经网络的智能便会得到提升。但事实真的是如此吗?


秀丽隐杆线虫是一种仅有1 mm大小、雌雄同体的线虫。它仅有302个神经元,与人脑中的神经元数量相差了9个数量级。但是,即使是这样低等的生物,也具有足够好的感知能力和运动能力,可以像人类一样在开放的自然环境中独立生存。最近一个来自MIT关于自动驾驶的研究表明,仅仅模仿了19个线虫神经元、只有75 000个参数的仿生神经网络也可以实现自动驾驶的基本要求。[11]而这个仿生神经网络的参数比传统的人工神经网络的参数至少要少3个数量级。换言之,生物智能的高低与神经网络的大小关系不大,它并不需要通过参数的累积来实现通用智能。从这个角度上讲,脑启发的人工智能也许是人工智能实现通用智能的必由之路。


人类的智能是进化的产物。最初的单细胞生物经过35亿年的进化才成为人类,所以我们的神经元中已经储存许多关于智能的密码,只是我们还没有去解开这些密码。即便如此,基于对神经元的极度简化的MCP模型已经能让人工神经网络展现出众多的智能行为,并在多个特定领域(如面孔识别、围棋、星际争霸等)达到或者超越了人类的智能。因此,相信未来随着脑科学研究的深入,我们对生物智能一定有更为本质的洞悉,届时受脑启发的人工智能一定能够达到更高层次的智能。


在另一方面,既然智能来源于进化,那么我们完全有理由相信:进化是理解智能的唯一途径。借助人工智能,我们完全可以构造一个虚拟的、开放的环境,设计无尽的任务,让智能体(Agent)在这个元宇宙中从0开始,逐渐进化。作为这个元宇宙的“上帝”,我们可以重现进化过程,从而观察智能是如何在进化中从无到有,从弱到强,由此洞悉智能的本质,构建关于智能的理论。



四、结语


矛盾律作为物理世界的法则,伽利略利用它推翻了亚里士多德的运动律。布尔把伽利略推理的原点进一步下沉,提出了描述思维规律的逻辑运算,0和1这两种状态成为智能行为的表征,于是计算机、互联网与人工智能由此生长。今天,我们需要把这个原点进一步下沉,探索反映人类精神世界的法则。这个法则是什么,我们不知道,但是我们知道正确的道路:那就是将人工智能与脑科学和认知科学深度交叉,而答案就在这交叉点处。也许在不久的将来,在这三大学科的加持之下,我们就能回答大脑究竟是如何工作的,而智能又是如何涌现而出的,人工智能又将迈向何方。



参考文献

[11]Lechner M,Hasani R,Amini A,et al.Neural circuit policies enabling auditable autonomy[J].Nature Machine Intelligence,2020,(2):642-652.


本文刊于《苏州大学学报(教育科学版)》2022年第3期,第11~14页。如有媒体或其他机构转载,请规范引用、注明出处。



往期回顾

心理学的底层逻辑与框架



- 左右滑动

查看更多 -





图文编辑:冯怿周

责任编辑:杨雅婕

审核人:罗雯瑶




苏州大学学报微信公众号矩阵 

苏州大学学报

哲社版

苏州大学学报

教科版

苏州大学学报

法学版

您若喜欢,戳戳“分享”“点赞”或“在看”


继续滑动看下一个

刘嘉 | 脑科学与人工智能

向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存