2022年11月,人工智能公司OpenAI推出了一款名为ChatGPT的聊天机器人程序,上线仅仅两个月,活跃用户数就突破了1个亿,引起社会各界的广泛关注。近几个月以来,随着聊天机器人ChatGPT的火热出圈,人工智能的话题也持续被大家热议。

微软联合创始人比尔·盖茨表示,ChatGPT是一种聊天机器人,可以对用户查询做出惊人的类似人类的反应,与互联网的发明一样重要;ChatGPT给以色列总统写演讲稿,骗过现场2万听众;马斯克也曾表示,ChatGPT好可怕;美国89%的大学生在用ChatGPT做作业……,ChatGPT的横空出世,它强大的语言理解和文本生成能力既令人恐惧,又令人着迷。

人类是否将被取代?我们该如何看待ChatGPT对人类生活产生哪些影响?3月6日,复旦大学徐英瑾教授做客北大博雅讲坛,为大家分享ChatGPT技术神话背后的逻辑。

人工智能的诞生是哲学思辨的产物

徐英瑾教授作为哲学领域研究学者,在人工智能与哲学范畴之间关系的研究上,主要探讨人工智能当中牵涉认知科学的基础问题和所带来的哲学问题,在两者跨学科之间,人工智能跟高度抽象化的古老“哲学”有存在哪些关系?

徐英瑾教授说到,今天我们看到的ChatGPT,实际上是在人工神经元网络-深度学习技术的基础上衍变出来的一个大型的语言的生成模型。由ChatGPT字面意思理解,Chat(聊天)Generative(生产) Pre-trained(产生)Transformer(转换器),ChatGPT目前获得的局部成功,是建立在海量的人工语料训练基础上“野蛮投入”的结果。

站在哲学角度,他认为ChatGPT虽然是个工程技术,但是每个工程技术背后都有一套哲学的想法,从海德格尔哲学的角度看,这种技术会将“常人”的意见予以全面的机械化复制;而从萨特哲学的角度看,这种技术还会加剧人类“自欺”现象的泛滥。从某种意义上说,该AI技术本身的诞生,就恰恰是“头脑风暴”般的哲学思辨的产物。

人类的经验无论积累多少都是关于过去的信息,而智能化是面向未来的,所以不能够通过对于过去大量的经验积累,就莫名其妙的跳到未来,对于这一点的认知就是基于了解哲学的思想。早期,英国哲学家大卫·休谟指出了对于未来的预期和知识是不能够通过对于过去的经验累积而自动的推导,所以在过去的经验和未来的知识之间,存在一个很大的缝隙,并且这个缝隙不能够被自动填满。了解这一点以后大家就明白了为何ChatGPT在处理问题上对于当下这种新闻的实时的回应性是非常差,现在ChatGPT主要还是基于2021年为止的数据量,实际上2021年的世界和今天的世界已经有了一个很大程度上的不同,因此ChatGPT对于当下所发生的一些最新的新闻欠缺实时回应的能力。

ChatGPT操作的思维逻辑只是经验主义

ChatGPT作为人工智能,它基础的思维逻辑是一个经验主义的想法,这种经验主义的想法所能够达到的生成性,实际上是一种伪生成性、被生成性,并没有一种真正的生成性,这是和人类思维有很大的区别。人类思维的一个很重要的特点,就是能够基于很少的语言制造出大量的这个句子。

如果把人类的心智和计算机的“心智”做一个类比的话,ChatGPT缺少基础的语法构建和后天的学习、精进的过程,仅仅只是在信息投递之后,在神经元网络训练的体系下,把这些数据训练成大家可以接受的结果。现在所有主流的都是基于数据训练,人工智能永远不可能达到智能的标准。这就是在对ChatGPT操作使用过程中,我们经常会遇到提出问题时,系统并没有及时回复,或者用户原本认为不应该出现的简单问题却出现回答上的错误,而那些相对来说比较难以解答的问题却轻松而解。

ChatGPT整个知识分布是以一种黑箱的方式进行,我们根本就不知道它的知识是以怎样的方式存储在哪里。

成年人的知识是类似以一种图书馆的方式存放,而且大概会知道处于某种位置。但是ChatGPT有所不同,当你要去修正它的一条知识的时候,它不会根据这条知识和其他知识之间的逻辑关系进行推理,而是你要把海量的信息投递给它,并且进行全局性的更新,之后慢慢让它再上升到一个新的知识阶段。这个过程费时费力,而且在数学上难以解释,在知识论上非常不透明。

现在人工智能里面的这个深度学习技术,亦也是如此,这与人类清楚的这种信念更换方式是非常不同。所以,当ChatGPT根据新情况改变自己的信念体系,这件对人来说不是特别难的事情,但是对于现在基于深度学习的ChatGPT来说相对比较困难。此外,修改正确与否,也没有明确的界限。徐英瑾教授总结道:ChatGPT系统并不是完全不会犯错,但是它只要一犯错,就会犯不知道如何修复的错误,这会使得它取代人类员工的这种可能性并不高。

当我们不知道你在什么地方会犯错,完全不可预期,将会是一件显得很可怕的事情。如果ChatGPT本身也是一种机器的话,就需要和人类要达成一个协作关系,人类就要预期这个机器,当它在哪些地方出错,对于它的出错的原因需要有一种可解释性;即使它的出错率很低,但是它的出错原因却是不可解释的,出错的地方是犹疑的,就会形成很大的问题。

人工智能不能够解决社会运作的底层逻辑

康德的哲学是具有真理的,他的真理性就在于人类智能的奥秘并不在于抽象的伪理论,也不在于抽象的经验论,而在于两者之间的一个交叉区域。所以当你一味的导向纯粹的经验派,肯定是要出问题的。经验派的问题是不能够推出未来的,而人类智能的创造性,恰恰是因为对未来具有构想力。

人工智能对于我们未来的这个改变,虽然有影响,但并没有我们想象的那么大。人类在这个世界上存在着很多的危机,比如说粮食危机和能源危机,而这些危机很多部分和政治治理之间存在关系,这恰恰不是人工智能能够解决的问题。

其次,类似ChatGPT这样的人工智能的CPU和GPU的运行需要资源供给,人工智能不仅不能解决人类电力等资源的基本需求,反而会加剧消耗。其次,对于现实的政治问题,它也无法干预,所以说人工智能不能够解决我们这个世界运作的底层逻辑,也并没有我们想象的那么重要。

徐英瑾教授举例说明ChatGPT的运作是根据以前的“套路”来写,比如写新闻稿,如果是机器写而且质量还可以,那只有一个前提,就是这个新闻事件和过去的一个新闻事件它是类似的。而对于新闻事件十分重视新闻用语,尤其与政治规范相关的新闻会随着时间而变化,迅速的迭代。ChatGPT数据是相对来说是具有滞后属性,并且缺少新闻最基本的真实性。除此之外,使用ChatGPT来完成工作很容易会促使工作者产生惰性。

至于人工智能在其他行业方面的影响,比如ChatGPT替代编剧写剧本,它无法真实刻画文学人物的心理冲突,也无法具备对于人类心理活动的真正洞见;厨师烹饪需要创新,人类在享受不同味觉的同时,其实感受的是一种文化体验,这种“文化”的风土性,人工智能是无法渗透的;修图软件和AI处理功能虽然能够成为画家减少工作量的一个工具,却无法表现作品所刻画的艺术表达;对于翻译者来讲,机器翻译的错误率是不可避免的,而这种错误在某种情况下是需要负法律责任……总之,在与社会打交道的这种能力,仍然是人类远远超出机器的地方,因为机器只能够在一个预定的事物之间的关系下进行处理,无法像人类那么灵活。

ChatGPT在替代人类工作中不仅存在弊端,并且现有的人工智能的工作水平被严重的高估。“目前人工智能的发展阶段,如果和物理学相比的话,基本上只是处在前伽利略阶段,还远远没有达到牛顿这个阶段”,这句特别富有哲学意味的话来自华裔美国计算机科学家李飞飞。徐英瑾教授表示:“我们现在对人工智能的了解没有达到科学阶段,还不能够把握一切,比如牛顿力学体系,不管是到火车的行驶,还是行星恒星的运作,都可以用一套体系说明,并且能够预测到足够大的范围,但是今天的ChatGPT和深度学习技术暂时无法预测。同样,如果把今天的人工智能与化学进行对比,我们只是处在前拉瓦锡的状态。”

徐英瑾《人工只能哲学十五讲》北京大学出版社 2021年7月出版

徐英瑾教授对于ChatGPT在未来的一个观点是:可以投入更多资源与资本,或许可以提升它的优化空间,但是从哲学上讲,因为ChatGPT所依赖的哲学基础经验主义并不是一种正确的哲学理论,所以它能够成功的道路是有限的,在进展到一定的程度就会退下来。

哲学思考,它要讲一定的伦理性,首先要考虑到社会中大多数人的一个实际需要,技术的发展不可以脱离普通人基本的一个需求。我们不仅要从哲学的角度来思考一句话,也要更多的相信像康德、柏拉图这样的一个哲学家。

作者:Kean, 图片来源网络

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注