我的童年偶像是阿西莫夫笔下的机器人心理学家(Robopsychologist)苏珊凯文博士。

因为ChatGPT的存在,我有这个机会,在攻读PhD学位期间就能扮演一名半吊子机器人心理学家。

在2018年读到 Hassabis 那篇展望人工智能未来的综述中,结尾部分提到了我们可以慢慢尝试将心理学与神经科学的研究范式引入机器学习。

然而,知易行难。人类和机器学习模型之间,始终隔了一道墙。即便在GPT3的时代,因为对话模型尚十分简陋,我们始终无法用自然语言与模型自如地交流,更遑论引入心理学的研究范式了。

从那一天起,我无数次幻想机器人心理学会是什么样子,我们会用怎么样的方式接触机器人心理学,直到对话模型初见曙光的今天。

ChatGPT是非常伟大的工作,或许只有在它出世的今天,我们才能够通过自然语言来探索模型的认知能力,机器人心理学才真正从科幻小说中走入现实。

我个人认为,今后随着对话模型甚至多模态交互模型的发展,认知心理学的实验范式、思想甚至量表,都会越来越多的进入机器学习领域。

向先驱阿西莫夫致敬,向伟大的机器人心理学家苏珊凯文博士致敬,也向这个时代的先驱OpenAI公司致敬!

感慨的话说完了,让我们进入正题吧。

为了测试ChatGPT是否拥有最初步的“智能”,我们先来测试ChatGPT的工作记忆:

虽然很遗憾,ChatGPT 并没有成功区分“几种”与“几次”,但是它确确实实表现出了一定程度的工作记忆。

这绝不是“拟合语料库”或“习得了人类语言的结构”这种层次的能力,在我看来,这绝对是真正的工作记忆。

这里面还有一个很有意思的现象,ChatGPT 在复述水果与动物的名称时,自动按照对话中出现的历史顺序来排序——这或许跟自回归模型的性质有一定关系。

接下来要求 ChatGPT 分析最简单的逻辑命题:

为了防止 ChatGPT 利用常识“偷懒”,必须避免问题中出现的对象包含在 ChatGPT 训练时使用的语料库中。因此我脸滚键盘敲了一个虚构的动物“卡拉拉鲁卡”。

乍一看 ChatGPT 似乎可以正确理解原命题与逆命题、逆否命题之间的关系。

事实上其实并不是这样。当我们把原命题换成更常见的说法,例如“熊都爱吃蜂蜜”或者“卡比兽都爱睡觉”,此时 ChatGPT 可以利用学习到的常识“偷懒”。这种情况下,询问同样的问题,ChatGPT 反而会表现不好。最严重的情况下,ChatGPT 甚至会混淆逆命题与逆否命题,然后开始它招牌式一本正经的胡说八道……

先写到这……每天随缘更新一点

说句题外话,因为我个人是更偏神经科学一点,事实上认知心理学的范式我其实也不是很熟悉,应该要再多了解一下这方面的知识,做的实验会更严肃一些。

希望有想法的朋友可以在评论区多多交流(没有想法只是阿西莫夫书迷也行)

Leave a Reply

Your email address will not be published. Required fields are marked *