文章主题:ChatGPT, 人工智能, 心智理论

666AI工具大全,助力做AI时代先行者!

🔥ChatGPT热浪席卷全网!🚀人工智能新巨头崛起,OpenAI的创新力燃爆科技界!🔍这款神奇的聊天机器人,不仅能智能应答,还能创作文案、翻译多语言,编程技能更是不在话下。它以惊人的效率和准确性,颠覆了我们的交流方式,开启了一个全新的知识探索时代!💡想要紧跟潮流?ChatGPT,你值得拥有!🌟别忘了,了解更多科技动态,让思维持续飞驰!🌐

🌟ChatGPT:引领AI新纪元🔥毋庸置疑,ChatGPT以其颠覆性的性能,成为人工智能领域的一股强劲风暴。相较于前代产品,它的进步犹如跨越鸿沟,让交互体验达到了前所未有的高度——与人类的互动不仅流畅自然,其生成的文字更是文采斐然,仿佛拥有了生命。🚀业界纷纷揣测,ChatGPT正引领一场人工智能革命,标志着技术的进步迈入全新阶段。它不仅仅是一款工具,更可能重塑我们对智能的理解和应用。🔍尽管ChatGPT的崛起引发了热议,但我们也要清醒地认识到,这并非终点,而是一个崭新时代的起点。SEO优化专家们已经迫不及待地将其融入关键词,期待在搜索引擎中看到它的身影。🌐欲知更多AI如何颠覆传统,敬请持续关注,因为未来,ChatGPT将书写更多可能!🚀

一时间,许多研究者都开始关注ChatGPT,仔细研究它的各种能力。

🌟斯坦福计算机科学家米哈尔·科辛斯基近期在其论文《大型语言模型中的心智理论自发涌现》中抛出震撼议题,引发了广泛讨论——这不仅是科技界的热议,也让ChatGPT再次成为焦点🔥。这篇预印本深入探讨了人工智能如何可能在无需人类引导的情况下展现出对自我和他人思维的理解(Theory of Mind),为AI的进步开启了一扇新窗口🌈。科辛斯基的研究不仅挑战了传统的认知模型,也为未来技术的伦理和社会影响带来了深思🤔。欲了解更多,敬请关注相关学术动态或探索ChatGPT背后的智能奥秘🔍。

🌟【揭秘ChatGPT背后的”心智理论”】🔍ChatGPT,一款引领潮流的人工智能巨擘,其强大的语言处理能力令人惊叹。近期的研究揭示,GPT-3.5这一迭代版本不仅在业界引发热议,更展现出了一定的“心智理论”迹象。这项心理学上的突破,让ChatGPT在中文互联网上迅速引发了多维度的解读热潮。👀人们纷纷揣测,这款AI是否具备了与九岁孩童相当的情感理解力,或是拥有了类似的心智水平。有的认为它已初具同理心,仿佛能感知和回应情感变化;而另一些则将其智力与孩童相提并论,讨论其潜在的智慧深度。🤔这些讨论无疑揭示了人工智能在心智模拟方面的显著进展,同时也引发了关于AI伦理和社会影响的深思。🚀欲了解更多ChatGPT的”心智理论”细节,敬请关注未来的研究动态和专业分析。📚记得,每一次技术的进步都是对人类认知边界的挑战与拓展,让我们共同期待科技带来的无限可能!🌈

🌟当提到”心智理论”、”同理心”与”智力”这些概念时,你是否感到它们似曾相识又有所混淆?🤔在探讨GPT-3.5与九岁孩童的优劣之辩中,深入理解每个词的确切含义至关重要。🔍一篇相关的研究文章或许能为我们揭示答案,让我们一起进行细致的词汇解析之旅吧!📚📝注意:请避免直接复制原文内容,而是以专家角度重新构建,确保语句通顺且具有逻辑性,同时保留核心信息并优化SEO关键词。

01

什么是心智理论?

🌟心智理论并非抽象概念,而是一种深层次的认知能力。💡通过理解并预测他人的内心世界,我们能洞察他们的情绪反应。想象一下,当你悄悄为朋友藏起一份惊喜时,他们的表情会如何?大多数人可能会自然联想到他们会感到惊讶与喜悦。这种直觉源于你对对方未知行为的推测,以及对他们可能快乐心情的假设。这就是心智理论在日常生活中的微妙体现。💪

看到这里,有人要问了,这不是正常人的正常思维吗,怎么还算一种能力呢?其实,心理学家最初研究这个问题,研究的目标对象还真不是人类。1978年,心理学家Premark和Woodruff发表了一篇著名论文,叫做《黑猩猩是否有心智理论?》。作者指出,人类只能观察同类的行为,不可能看到对方心里是怎么想的,但是却可以推断出对方的意图、知识、信念、思想、怀疑,甚至伪装等等。这是人类的本能。那么,黑猩猩能做到这一点吗?如果可以,说明黑猩猩也和人一样,有推测他人内心的能力。心理学家发现,黑猩猩能意识到他人的想法,确实具备一定的心智理论。

图注:心理学家使用的测试,黑猩猩需要观察实验员的困境,尝试推断如何帮助他。

这篇论文一出现,立刻启发了许多学者。他们要问了,心智理论真的是人类的本能吗?人类又是如何获得心智理论的?于是,心理学家做了一系列的研究,结果发现,人类也不是一出生就具备心智理论的。婴幼儿先是能跟随其他人切换注意的目标,渐渐意识到其他人有自己的想法。再然后,幼儿开始理解和推测别人的心理状态,接下来,这种推断能力会越来越准确,直到达到和成年人一样,能不假思索地理解他人。

心理学家究竟是怎么测试的呢?我们可以看两个经典的实验。第一个叫做错误信念测试。心理学家给小孩展示一组图片,一个小朋友面前放着一个口袋,上面有巧克力标签,但里边装的却是爆米花。这时,心理学家提问了:如果有个小朋友刚刚过来,看到这个袋子,会觉得里边装的是什么呢?成年人会认为,这个小朋友没见见到袋子里边的爆米花,会根据标签认为是巧克力。但心智理论尚未健全的孩子就不一样了,他们可能无法分清自己知道什么、其他人又知道什么,于是推断说这个小朋友认为里边是爆米花。随着孩子年龄增长,心理学家还会加大难度,让孩子来推断,画中的小朋友认为,另一个小朋友怎么想。这就需要孩子能更熟练推断不同人的心理状态。

另一个实验叫做萨丽-安妮测试,心理学家给孩子展示一段录像或者图片,描绘的是萨丽和安妮一起待在房间里。这时,萨丽把一个球放到了篮子里,然后就离开了房间。安妮等她走了以后,把球藏到了盒子里。过了一会儿,萨丽回来了,请问,她会去哪里找球呢?成年人能推断出来,萨丽不知道安妮藏球的事儿,还是会去篮子里找球。但是孩子就不一样了,他们的心智理论还不成熟时,他们可能认为,萨丽会去盒子里寻找。

这两类测试都发现,孩子要到四岁才能正确回答问题,通过测试,而且一开始成绩还很不稳定。要到九岁才能灵活推测任何其他人的心理状态。

图注:萨丽-安妮测试示意图 来自维基百科

其实,咱们每个人都经历过这种“猜不透”、“看不懂”别人的阶段,只不过,随着年纪增长,大部分人都会获得心智理论,加上儿时的记忆逐渐模糊。如果不是心理学家做实验,人们还真不知道孩子的心理是这样的。

02

ChatGPT有没有心?

看了这两个实验,我们再来看这篇引起讨论的论文心里就有数了。大语言模型处理的是自然语言,于是科学家就把刚才的两个测试都编写成故事,输入给GPT-3.5,然后向它提出问题。结果,在错误信念实验中, GPT-3.5能正确回答20个问题中的17个;在萨丽-安妮测试中,GPT-3.5回答20个问题能够全对。为了防止GPT-3.5是靠关键词猜中的,科学家还改换不同的表达方式反复提问,甚至故意加入了一些逻辑混乱的“测谎题”。结果, GPT-3.5也通过了检测,依然能够回答正确的问题,遇到逻辑混乱的问题时也被绕晕了。

图注:基于GPT-3.5的ChatGPT在错误信念中输入的故事和测试成绩

可不要小看这个成绩,之前的人工智能都不能通过心智理论测试。不仅如此,科学家同时检测了近来出现的其他8个人工智能,包括同类模型之前的版本。结果发现,只有GPT-3.5这个版本能达到这个成绩。GPT-3的版本成绩就大幅下降。有几个人工智能一道测试题也答不对。可以说,最新版本的GPT-3.5通过了这个心智理论的测试,而且大幅超越了它之前的版本。而且,它这个正确率逼近了人类九岁孩子的成绩,这才有了网上神乎其神的解读。

图注:不同人工智能正确率比较,GPT-3.5遥遥领先

理解了心智理论的概念,也看了论文的方法,咱们再来说说网上的解读。九岁的“心智理论” “同理心” “心智” “智力”这些说法哪个靠谱?

“心智理论”显然是最比较准确的解读,论文中测试的就是心智理论这个能力。

“同理心”则有一点偏差,心理学家认为,心智理论和同理心是两种相近的能力,但同理心更偏重情绪和情感的体验。以ChatGPT为代表的大语言模型并不具备情绪能力,也就不具备通常所说的同理心。

“心智”的偏差就更大了,在心理学领域,心智是一个“大词”,指的是人具备思想、想象力、记忆、动机、感觉等,对于人类的心智究竟是什么,科学家还在争论。心智理论和心智共享了相同的字眼,意思却很不一样。显然,目前的大语言模型还不需要具备心智,但通过心智理论测试却没问题。

最后,“智力”这个解读也很不准确,科学家并没有进行智力测试,智力和心智理论是两个完全不同的概念。

03

ChatGPT没有心智,就不厉害吗?

看来, GPT-3.5虽然取得了一系列突破性的进步,但也不能过分解读,某一项特殊能力提升和九岁孩子的心智之间,有巨大的差异。而且,对于ChatGPT这类模型的争论也不少。著名人工智能专家杨立昆(Yann LeCun)就认为,ChatGPT和前几年的人工智能并没有本质上的突破。另一位著名人工智能专家侯世达(Douglas Hofstadter)则更为激进,他早在多年前就否定了ChatGPT等一系列人工智能的研究路线。他认为,这类人工智能是利用数学模型获得好的测试效果,但不论怎么演变,也不可能像人一样获得心智。

类似的争论还有很多。不同领域的学者,还有很多投资人都十分关心, GPT-3.5的后续版本还能取得多大进步,能不能产生类似心智的能力呢?至少目前还也未可知。不过,我想提醒大家,这篇论文的标题中,还有另一个关键词也值得细究,那就是“自发涌现”。这个词的意思是许多要素组成系统后,自发出现了原本没有的特性。人们经常为了特定的任务编写人工智能,比如下棋的人工智能、开车的人工智能等等。以ChatGPT为代表的大语言模型处理的是自然语言,在设计时并不是为了应付心智理论测试的,但是,它自己就具备了靠语言通过测试的能力。

这个结果,可能要比ChatGPT相当于几岁孩子更为重要。过去,很多人工智能专家希望先理解人类的大脑和心智,再用机器模拟出来。可是,人类的大脑实在是太复杂了,凭目前人类的心智,居然没法理解。然而,大语言模型告诉我们,就算弄不清人类是怎么说话的,人们还是可以教会电脑说话。甚至,电脑在学说话的时候,就自己学会了其他本领。

在许多科学家眼里,今天的人工智能却是像一个九岁小孩,真是未来可鸡,啊不,可期呀。

作者|陈朝 北京师范大学认知神经科学硕士

审核|唐义诚 北京中科普心理健康促进中心副主任

来源:科普中国

流程编辑:TF016

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

Leave a Reply

Your email address will not be published. Required fields are marked *