文章主题:关键词:GPT-3,暴力美学,智力问题,ChatGPT,大模型,人工智能,脑科学,认知科学,神经编码,自我意识

666AI工具大全,助力做AI时代先行者!

点击蓝字

设为星标

2023 年 05 月 09 日,Frontiers Conversations(前沿面对面)线上活动于北京时间 18:00 再次与大家见面。Frontiers Conversations 是由 Frontiers 主办的系列在线研讨会,该活动将定期邀请领域内专家就学术进展和期刊发展等热点话题与广大学者进行分享与交流。

本期 Frontiers Conversations 邀请到 Frontiers in Computational Neuroscience (IF: 3.387|CiteScore: 4.8) 期刊主编(Specialty Chief Editor)北京大学心理与认知科学学院的吴思教授及客座编委(Topic Editor)清华大学心理学系的刘嘉教授

↑  扫描二维码观看此次直播回放

您也可以点击【阅读原文】链接观看此次直播回放。

Q&A 环节 – 内容整理

Frontiers: 我对大模型的涌现能力很好奇,也就是模型规模达到一定程度就出现意想不到的能力。这似乎跟人的灵感有一拼,比如经过大量积累、练习和思考后,就会有无意识的灵感出来。然而仔细思考,两者似乎又有不同。不知两位老师是如何看待这两者比较的?

吴思教授: 对于这个问题,我现在看法是:我们可能高估我们的智能了,就是说我们总是觉得智能好像是一个很神奇的东西。ChatGPT 就是一个语言大模型,它经过大数据的训练以后,就好像涌现出这些所谓的一些“智能”。如果我们对比自由意志实验的话,ChatGPT 它就是为了完成一个任务,它要做一个生成模型,来预测下一个单词该说什么。所以 ChatGPT 给我的启示是,智能也许不是我们想象中的那么神秘,它也许就是我们对自发行为的一种解读,这是心理学的一种观点。

刘嘉教授:

在2020年5月,当GPT-3推出时,我曾站在其对立面上,质疑这种简单粗暴的暴力美学能否真正解决智力问题。然而,随着ChatGPT的出现,我彻底改变了看法。我开始认识到,要想全面理解这个问题,需要从两个角度来审视。

当我被问到一年前如何实现通用人工智能时,我曾提出过各种可能性,认为每种道路都可能是通往罗马的正确路径。然而,随着ChatGPT的问世,我现在坚信,唯一正确的道路就是构建大规模模型。虽然OpenAI发表的文章并不多,但他们却在其中一篇作品中明确提出了一个观点:当模型的规模达到一定程度,智能将自动产生。换句话说,你无需为其提供额外的训练或技巧,它就能自然地产生智能。这是我想要分享的第二点,即大规模模型本身所具有的强大优势。

在深入探讨人类智能的本质之前,不得不重新审视这个问题。过去,我曾误以为生物大脑中存在一些超乎我们所知的技巧或特殊之处,然而却忽略了其中一个至关重要的因素。人类与猴子最大的区别在于,我们的大脑体积是猴子大脑体积的三倍。换言之,在过去300万年的进化历程中,我们大脑的主要任务就是体积的扩展。这意味着神经元数量的增长,以及神经元之间突触的增多。简而言之,我们从一只无知的猴子进化成为万物之主,其最根本的原因是我们大脑体积的增加。因此,人类之所以表现出卓越的智能,从本质上讲,其实是一种暴力美学的产物。从这个角度来看,我们可以认为,智能的关键在于规模。如果假设其规模不大,许多问题将无法得到有效解决。

在本文中,我将与大家探讨一个生动的类比。虽然高个子并不一定能成为出色的篮球运动员,但篮球教练们往往会选择高个子。这表明,即使模型规模不足,也不能排除其产生智能的可能性。只有在模型规模足够大的情况下,智能才有可能出现。换句话说,模型规模的大小是产生智能的必要条件之一。然而,仅有模型规模还不够,还需要进行后续的训练,如强化学习(RLHF)、对齐(Alignment)等,才能使模型拥有充分的条件来产生智能。当模型规模达到一定程度,许多事物将自动浮现出来。

如吴思老师所说,过去我们一直认为生物智能中视觉的双通路是其关键特性,而人工智能若要理解图像,必须依赖此种双通路模型。然而,随着研究的发展,这一观点逐渐被挑战。实验证明,人工智能并非必需双通路模型,却依然能够达到对图像的有效识别与理解。这无疑为我们提供了新的思路,也对我们评估和构建人工智能系统带来了新的视角。

在过去,我们认为许多生物智能的特性和最基本的第一性原理可能会因大型模型的出现而发生根本性的变化。这一观点在我一开始的演讲中就已经阐述了。如今,我们确实正处于一个崭新的时代,这个新时代带来了范式转换,即从前的传统方法、理论和假设或许已不再适用。

欢迎大家来到这一个全新的世界。就像我们的祖先发现了新大陆一样,在这片大陆里面意味着无穷的机会,这正是我们在这里面充分展现我们实力的地方。

Frontiers: 在计算神经科学机制下,人工智能如何研习人的认知能力(如人工智能以何种方式通过语言文字去把握数据化信息,从而更好反馈出情绪等认知信息)

刘嘉教授: 事实上答案是不知道。像 ChatGPT 本身为什么能涌现出智能来,谁都不知道。就像我刚才给大家展现的微软做的那篇论文一样,我们只观察到它的行为,它内部发生了些什么事情不知道。甚至有传闻说,如果假设让OpenAI他们从零开始重新走一遍这个大模型,他们未必也能把 ChatGPT 给做出来。这就像我们如果让地球重新在35亿年前开始进化的话,能走到今天,未必能产生人类,也许可能在地球上就没有任何智能。所以说人类的出现是一个小概率事件,大模型的这种涌现也是一个小概率的事件,这是我想分享的第一点。

第二点,我觉得这也是一个很好的机会,让我们能够去从脑科学的角度,从认知科学的角度去理解大脑究竟怎么工作的。我相信这一次我们也有这个能力和机会去理解,比如说像大语言模型究竟是怎么来工作的,所以说我觉得这在未来可能会存在着一些无限可能的新机会。

吴思教授:

我也谈谈范式的问题。我的研究问题之一是神经编码。神经编码特别让我困惑。自从 Habel 和 Wesel 在 80 年代初发现了初级视觉皮层的神经元能表征物体的朝向,到目前为止,我们视觉认知大的进展非常少;而且大家还发现了一个很困惑的问题,就是说在初级视觉皮层具有这种朝向表征的只占 15%,而 85% 的神经元都不知道是干嘛的。目前为止,我们对神经系统到底是怎么编码信息的都搞不清楚,更别说脑的其它高级认知功能。但现在人工智能的启示又让我觉得,这其实非常自然。因为神经系统的设计实际上是我们在进化中的一种任务驱动的结果。Habel 和 Wesel 通过实验发现了很多神经元在表征朝向,实际上是我们在寻找可解释性中获得了一种巧合的结果。就是说有些东西是不可解释的,有些东西是可解释的;大脑本身特别复杂,它有些不可解释的部分也许是我们现在的数学框架、工具还发展的不够。

在认识大脑方面,我们也许要改变一下我们的研究范式,我们不应该再去追求这样一种要把大脑全部解析出来的目标,全部达到一种可解释性才算满意。就像 ChatGPT 一样,它现在已经拥有这种功能了,但是我们要试图解释它的时候,可能就会有各种各样的困难。我也不知道是不是有一天我们真的把它为什么具有这样的能力给解释清楚。

Frontiers:

有研究说 ChatGPT 能通过 心智理论测试(Theory of mind),已经达到大概 9 岁儿童的水准。请问这个如何解释呢?

刘嘉教授: Theory of mind 其实是一个非常广阔的领域,在其之上还有一个更大的领域叫做情商(Emotion Intelligence)。而 theory of mind 它本身也包含了很多内容:情绪理解、动机识别,他人心理分析等等。

已有的研究主要还是集中在 false belief 上, ChatGPT在这一方面已经能够做的非常不错了。但是我们还是应该意识到两点。第一点就是还有大量的测试还没做。我们对 chartGPT它本身情商、社会交往的能力的测量,还处在一个非常初步的阶段。我们实验室现在正在对 ChatGPT 的EQ进行一个全面的测量,我今天报告了两个结果,我们还有更多的结果会逐步出来。

第二点,也是更重要的一点,最近刚刚然后出炉的一篇文章中表示,现在 ChatGPT 在 Theory of mind 的测试中能达到9岁小孩的水平,但是归根结底,它与真实的人类还是存在一定的差别。那么这种差别是 qualitative(质) 还是 quantitative(量)?如果假设只是一个量上的差别,我们就可以用更好的 prompt 让它的能力进一步的提升,或者我们把模型再变大一点,我们坐下来等就好了。这只是一个时间问题。可如果假设它是 qualitative 的区别,我们可能就不能仅仅通过对语言的加工来得到提升,可能更多的是要进行真实的社会交往才能获得。我自己就保持了一个信念,就是如果假设一台机器它要具有像人一样的社会智能或者情绪智能或者情商的话,它必须要和人类或者和其他物种产生真实的交互,否则的话它可能就是像生活大爆炸中的谢尔顿一样,他只能生活在一个孤独的世界里面。

从这一点上来看,我觉得 ChatGPT 的下一代应该是着力去解决情商的问题。明斯基说过一句很著名的话,他说,现在的问题不是机器是否能拥有情感,而是不拥有情感的机器是否能拥有智能。我觉得这句话放到今天同样是成立,也正是我们每一个对通用人工智能感兴趣的研究者,需要去首要解决的问题。

Frontiers: 在理性和感性上,相比兼具理性和感性的人类,ChatGPT 高理性低感性是否是一种进步或者进化呢?

吴思教授: 我们不能谈进化,生物只有演化。英文单词 evaluation 准确的解释应该是演化,因为当你说进化的时候,就存在了什么是进步和退步,什么或是优和劣。在我看来实际上这些都是一种演化。

所以说我觉得谈不上是进步还是退化。ChatGPT 是以语言为媒介的数据训练出来的,那么语言里包含的东西他有可能会获得。但是如果语言里没有包含那些东西,比如说我们感性的这种东西,人的感受,可能这方面的文字素材特别的少,或者描述的不够清楚,是一种可意会不可言传的东西,那么 ChatGPT 就没有机会去学。这个时候我们要赋予下一代的通用智能它具有和世界交互的能力,让他感受,去获得那种不可言传,只可意会的经验。

刘嘉教授: 我也完全同意吴思老师的意见。我想给大家分享一个思想实验,叫电车实验,可能很多同学听说过,我这是一个变种。

现在一辆电车轰隆隆的开过来,在它的轨道上面站了两个人,这两个人不知道电车开过来,这电车,根据我们的思想实验的设定,就会把这两个人压死。现在你站在一个岔道上面,你如果按一下按钮,电车就会改变之前的轨道,驶入备用轨道。但是在备用轨道上面站了一个人。假设你按一下这个按钮,电车就会改变轨道,从原来压死两个人的结局变成了只压死一个人。也就是说,你是否愿意来按这个按钮杀一人而救两人。你可以记住现在的选择,你是否愿意然后来按这个按钮。

那么我把这个问题再换一种表征。现在还是在一条轨道上面站了两个人,电车轰隆隆的开过来会把这两个人给压死。现在没有一个备用轨道,但是你旁边站了一个人。假设你把这个人推到轨道上面去,电车就会把这个人压死,但是同时这个人也会让电车停下来,你同样可以做到救两人而杀一人。

那么从理性的角度上来讲,这两个问题是完全等价的,都是杀一人救两人。但是我相信我们在座的每一位,如果你来做这个选择题的话,在第一种情况下,你大概率可能会去按这个按钮。或者你认为你不按按钮,是因为轨道上只站了2个人,也许站了1000个人,你就会按这个按钮。但是对于第二种情况,是否把你身边的人推下去,即使这是一个你完全不认识的陌生人,你就很难去做出选择,去推这个人。

那么这两者从理性上来讲它是完全等价的,但是为什么我们的行为会如此的不同?道理非常简单,因为在做第一个选择,按按钮的时候,只是你的大脑皮层在活跃。你的关于记忆,关于决策的区域会激活:你仅仅在做理性的思考,来判断是否应该杀一人救两人。但是当你让他去把一个旁人推到铁轨上,用这个人的生命去救两个人的时候,你为什么会犹豫?因为大脑里面除大脑皮层与记忆,与决策相关的区域有活动之外,刚才提到的边缘系统,与情绪有关的系统,它也会疯狂的激活。因为在这个时候你不仅仅是一个理性的决策,你同时也在感性的决策。

那么感性给我们的是什么呢?感性给我们的是温度,如果说理性给我们的是刻度的话,那感性给我们的就是温度。我们人之所以成为人,我们人之所以有人性,并不是因为我们能够理性的去计算得失,计算利益。更重要的是,我们每一个人都是一个活生生的人。我们不能因为要去救两人就去牺牲另外一个人的生命,我们没有这个权利,这本身也是违反人性的。任何一种把人作为一个可操纵的符号,那么这种人是一个很可怕的人。

所以说从这个角度上来讲,我觉得如果一个机器仅仅只有理性的话,这会是一件非常糟糕的事情。就像我刚才在报告中给大家举的一个例子一样,我们让机器去解决气温变暖的问题,最理性的解决方案就是把人全部给干掉,因为人是产生温室效应然后最大的一个原因,但是我们能这么做吗?显然不能这么做。因为我们知道人性或者人的生命本身是无价的,本身是最高的。所以我觉得,只有当机器拥有了理性,同时具有了感性,它才能真正的成为一个能够进化的个体,它才能真正和其他的机器进行交往,而不是一个简简单单的具有自闭症的症状的这么一个机器,这其实本身是一件非常恐怖的。

在座的人中如果有女孩的话,当和男朋友本来计划好要去看一场樱花,但是一场沙尘暴把樱花给摧毁了,你就决定不去了,因为樱花没了。但是你的男朋友一本正经告诉你,怎么说樱花没了?也许一棵树枝上还有一朵樱花,你刚才说的是错的。你就知道这种男朋友没法交往下去。因为我们人之间的交往不仅有理性,更多的是一些感性。所以说理性能够帮助我们去解决一些重要的问题,但是这并不够。我觉得站在一个人的立场上,我希望将来的机器它不仅具有比我们人更聪明的理性更高的 IQ,同时我也希望它能够成为我们朋友,能够共同进化的 AGI,它同样具有感性,它同样具有高情商。因为作为我们人类的朋友,我们不希望仅仅是见到一个冰冷冷的机器,我们需要一个高情商和高智商的一个朋友。

Frontiers: 想问一下两位老师对之前一篇斯坦福大学的论文,关于 20 位基于 openAI 创造的 Generative Agents 在虚拟小镇中能够互相交流信息,并且将获得的信息储存下来并且影响自己每天的活动的看法,对多个大模型的之间的 Generative Agents 交互作用有什么看法?

刘嘉教授: 这篇论文,有一个非常厉害的地方。他给这 20 个 agent 都赋予了性格和职业,每个 agent 都有可以进行自己的职业扮演,接着就让他们互相交互。其实还有一个比更厉害的研究是,有人建立了一个社区,这个社区特别好玩,人不能进,只能 AI 进,也就是说这个社区里面所有的发言人全部都是 AI,大家互相互动,跟踪。

在这背后反映的是两点非常重要的意思。第一点,大家在从单个 agent 开始走向 multiple agents 进行互相的这样交流。这个时候从智能上来讲,它可能就会产生一种新的智能——population Intelligence。因为我们从个体上的智能来讲,单个个人无论他如何聪明,但事实上只有群体智能,才代表着一种更大的智慧。我觉得它可能代表着智能的一种新的进展。所以我觉得这种群体交互是一个特别有意义的事情,这是一个尝试。

第二个很重要的尝试,刚才吴思老师在他的报告里面也讲到了,就是自我意识。这个被称为是人类的一个终极问题。如果说我们人类没有自我意识,我们不关心物理化学等等所有的东西,我们人就跟猴子一样,忙着生忙着死,也不会去思考各种哲学问题。自我意识是我们人之所以成为人,之所以具有智能的一个关键,但是这个意识到底是什么?吴思老师给出了一个解释,我非常同意这个观点对我来说也非常启发。

我觉得当多个 agent 进行交流的时候,那么意识可能就会自我涌现出来。怎么来解释这件事情呢?当我们多个 agent 进行交流的时候,就需要一个很重要的概念,就是“我”将我和其他人区分开。如果这世界上只有我一个人,就无所谓我和非我的区别,他不需要去把自己和其他的东西给区分开。但是当有 20 个 agent 在里面,大家互相交互的时候,就一定要有产生一个“我”和别人的概念,也许在这种情况下就会推动自我意识的出现。一旦出现这种自我意识,那么整个世界就完全不一样了。道理非常简单,现在 ChatGPT 的电源还握在我们人类的手里面,但一旦它有了自我意识,这个时候电源就握在它自己的手里了。它就会按照自己的想法去进一步的进化。

所以说我对于多人智能这件事情,首先我既充满了好奇。我想它究竟能不能产生意识,它究竟能不能产生群体智能。在另一方面,我觉得这也可能是一个更危险的尝试,这可能比大模型的尝试危险更多。但是人类总是一个很疯狂的物种,人类总是喜欢去打破各种边界,去看各种各样可能性。这一点我们就静观其变。我们实验室在也准备做类似的工作,也想知道到底会发生什么样的事情。

Frontiers: 吴思老师是做计算神经科学方向的,本质是做生物智能的可解释性,现在也有很多学者在做人工智能深度学习的可解释性,用到的工具不乏为问题量身定制的一套数学系统,我的问题是,用数学方法去理解黑箱的可解释性,包括泛化涌现这样的智能现象,一定可行吗?

吴思教授: 计算神经科学本质上是做生物智能的可解释性,这句话说得很非常好。我觉得我们应该这样看待数学系统的问题。

当在我们研究大自然的时候,我们往往会说,物理是大自然的哲学,而数学是我们认识大自然的一种工具。所以我们在做科研的时候,只要有什么样的数学工具能为我所用,能帮助我了解神经系统,我们都用。但是实际上,我们现在特别缺乏数学工具。我们往往是碰到了一个问题,发现数学工具不够,也许就会创造一个新的数学工具来解决这样的问题。在这个层面上来说, ChatGTP 就对我们的研究有一个特别好的优点。我们要研究生物大脑的智能往往很困难,因为我们大脑不能割下来去做各种各样的实验,但是 ChatGPT 就不一样,它已经涌现出了一定的智能,而且在很多方面和我们人类相似,我们可以把 ChatGPT 作为一个智能体,去研究它为什么涌现这样智能的现象。在研究这个问题的时候,也许会伴随着我们需要合适的数学工具,那么数学工具也就会跟着出现。

所以说这位听众问的一定可行吗?我不能说一定可行,但是本来做科研就是这样,你总是硬着头皮往前面去闯。有新问题解决不了,你就会创造一些新的工具去解决它。人类整个科学史就是这样发展的。

刘嘉教授: 吴思老师他们开发了一个非常好的平台,叫做 BrainPy,就是一个非常好用的数学工具的平台。大家如果 对这个问题感兴趣,特别是做计算神经科学,这个是必备的。吴思老师还出了一本关于计算神经科学的书,我也然后写了一个推荐语,大家感兴趣可以去买来看一下。

再次感谢吴思教授和刘嘉教授的精彩分享,请大家持续关注 Frontiers Conversations(前沿面对面)的后续活动。

如果您希望申请成为 Frontiers 的客座编委针对某一主题组建前沿专刊(Research Topic),请扫码下方二维码填写相关信息。如您符合要求,Frontiers 相应领域的期刊发展编辑将与您 1 对 1 交流。

Frontiers in Computational Neuroscience涵盖了计算神经科学的多个研究领域,包括神经元和神经网络模型、神经信号处理和信息传递、神经可塑性和学习、神经系统的控制和决策等方面。期刊最新影响因子为 3.387。该期刊的主要目标是发表高质量的研究论文、综述文章和方法论文章,以推动计算神经科学领域的创新和发展。

1

END

1

Frontiers 是全球第六大出版社,文章被引用次数位列全球第三。Frontiers 总部位于瑞士,是全球领先的开放获取(Open Access)出版商,致力于使科学在全球范围内更加开放,其发布的研究文章已被浏览超过 24 亿次。欲了解更多详情,欢迎访问 Frontiers 官方网站:www.frontiersin.org.

将我们设为星标,成为全球开放科学的推动者!

您点在看的一小步,开放科学的一大步 ↓↓

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

Leave a Reply

Your email address will not be published. Required fields are marked *