文章主题:AI, 机器人, 人工智能, 自我意识
在科幻电影《机械姬》中,人工智能(AI)机器人艾娃展现了超乎寻常的特质,她拥有人类般的外观和智慧,甚至表现出与人类相近的情感和欲望。她努力寻求与程序员迦勒建立情感纽带,进而争取自由。然而,艾娃的”心灵”实际上仅由电路和程序代码构建。这部作品无疑是对AI自我意识、人性及伦理问题的深度探讨,引发了一场关于未来科技与人性的思考狂潮。
近期,OpenAI公司的共同创立者及首席科学家的伊尔亚·苏茨克维在《麻省理工科技评论》杂志的专访中分享了他对于未来人工智能发展的期望与关切。他认为,如果我们对世界持有偏见,那么ChatGPT或许可以被视作具有意识的存在。
在过去的两年里,ChatGPT以及其他大型语言模型(LLM)以其惊人的表现在全球范围内引起了广泛关注。这些系统的产生似乎展现出了类似思考、理解和创新的能力。因此,一段时间内,“ChatGPT是否拥有意识”成为了网络上的热门话题,并再次激发了人们对人工智能是否具备意识这一问题的深度讨论。这种现象order的出现在人们面前,无疑让我们对人工智能的发展有了更深的认识,同时也引发了我们对于意识的本质和人工智能是否能够拥有意识的深入思考。
苏茨克维言论存在炒作嫌疑
在去年11月,OpenAI推出了一款名为ChatGPT的先进聊天机器人。这款机器人在短时间内迅速崛起,引起了全球范围内的关注,甚至引发了新一轮的AI竞赛。仅仅两个月 after its launch, the number of active users of ChatGPT exceeded 100 million, demonstrating the immense popularity of this cutting-edge technology that had captured the imagination of people around the world.
在今年的9月25日,人工智能领域的领军企业OpenAI做出了一项重大的宣布,那就是他们将会让ChatGPT具备处理并利用语音、音频与用户对话的能力。这一消息公布后,网络上流传着一些与之相关的视频,其中AI语音交互的语气、停顿以及重音都让人惊叹,它们几乎与真人的表现无异。然而,也有人对AI在停顿那一秒是否真的在思考提出了质疑。
事实上,10月初,苏茨克维就在其社交账号上声称,“大型神经网络具有轻微的意识”。
关于AI技术的进步,未来主义网站发表了一篇独特见解的文章。文章指出,尽管AI在过去十年间取得了显著的发展,但与人类智能相比仍有很大差距,更别提具有意识地去感受世界了。
Mind Matters播客网站指出,当AI领域的领军人物将他们所创建的成果视为拯救世界的救世主,同时又是可能带来潜在威胁的死神时,这种说法实在让人感到困惑。然而,某些更为中立和客观的观点或许可以减缓这种炒作的热度。
罗伯特·J·马克斯,一位计算机工程师,是众多理智声音的代表之一。他再次强调,人工智能永远无法达到与人类相当的智慧或意识水平。AI的运作依赖于算法,其性能与人类情感和思维方式存在本质差异。
没有理由认为当前AI有意识
不过,也许这样的辩论陷入了语义混乱之中。
意识到底是什么?它能被量化吗?这本身就是令哲学家和科学家困惑已久的问题。
一篇来自美国趣味科学网的文章指出,哲学家们通常将意识定义为一种独特的自我认知能力,以及对外部事件的理解。与此同时,神经科学家们则通过对人类大脑中整合和解读感官数据的复杂过程进行分析,从而提出了一种关于如何衡量意识的新视角。然而,当这些理论被应用到人工智能领域时,情况变得相当复杂。
粤港澳大湾区数字经济研究院(IDEA)讲席科学家张家兴在接受科技日报记者采访时表示,对于AI领域的从业人员来说,对“什么叫AI拥有自我意识”这件事情并没有一个很清楚的定义,自我意识很难像人脸识别、语音识别这些能力一样可以被定量衡量。
《自然》网站10月30日发表书评文章称,美国纽约大学神经科学家约瑟夫·勒杜在《存在的四个领域》中提出,地球上的生命有四种基本类型:生物生命、神经生物生命、认知生命和意识生命。勒杜坚持认为,意识只能存在于生物体内。即使模仿具备意识的生物的机制(无论这些机制从微观到宏观层面是什么),所产生的系统也不会有意识。
澳大利亚《对话》杂志今年也表示,“目前的这些AI系统真的能进行思考和理解吗?”不是一个可单纯通过技术进步来回答的问题。
新发表在预印本网站arXiv上的一篇论文称,今年3月发布的语言模型GPT-4未能通过图灵测试。
大脑如何产生意识依旧未解
据10月27日发表在《神经科学》杂志上的论文,爱沙尼亚研究委员会3名科学家认为,尽管AI系统具有复杂的反应,但这些系统不具备人类所拥有的具体经验或神经机制。因此,将AI的能力等同于真正的意识可能过于简单化了。
研究指出,语言模型缺乏我们通过感官与周围世界进行接触所获得的具体的、嵌入性的信息。同时,当今AI算法的架构缺少与哺乳动物意识相关的丘脑皮质系统的关键特征。此外,导致有生命、有意识的有机体出现的进化和发展轨迹,是今天的AI系统的发展轨迹所不可比拟的。
生命有机体的存在依赖于多层次的细胞活动,能动性和意识正是产生于复杂的有机体活动。因此,尽管人们想当然地认为ChatGPT和类似的系统可能是有意识的,但这严重低估了我们大脑中产生意识的神经机制的复杂性。
25年前,神经科学家克里斯托夫·科赫与哲学家大卫·查默斯打了个赌。科赫说,大脑神经元产生意识的机制将于2023年被发现。查默斯表示不可能。今年6月23日在纽约召开的意识科学研究协会年会宣布了这一赌局的结果:查默斯获胜。也就是说,大脑神经元产生意识的机制并未在今年被发现。
发表在《神经科学》杂志上的论文也认为,生物神经元是真实的物理实体,可以生长和改变形状,而大型语言模型中的“神经元”只是无意义的代码片段。我们距离理解意识还有很长的路要走,因此,距离研发有意识的机器还有更长的路要走。
《自然》网站文章称:AI系统会有意识吗?我们真的想要制造一台具有意识或能动性的机器吗?这些问题的答案都是不确定的。我们还不了解世界上哪些生物是有意识的,也没有建立起将这种可能性纳入考虑的伦理框架。在该文作者看来,成为一个去思考意识来源的生物,而不是一个渴望创造人工意识的生物,也许是更明智的选择。
【相关链接】
最新研究表明GPT-4未通过图灵测试
图灵测试是一种检验机器是否具有人类智能的方法。ChatGPT在AI领域成为“新星”的过程中,有一个问题一直存在:它是否通过了图灵测试。
美国加州大学圣迭戈分校的研究人员卡梅隆·琼斯和本杰明·卑尔根借鉴了艾伦·图灵的研究成果,设计了一个程序,以确定机器是否能够达到人类智力和对话能力的临界点。倘若达到临界点,那么它就足以让人误以为它是人类。结果显示,GPT-4未通过测试。相关研究报告《GPT-4能通过图灵测试吗?》于10月31日发表在预印本网站arXiv上。
ChatGPT给人的印象大多是聪明的、快捷的。在与人交谈时,它的回答很人性化,甚至可以表现得幽默风趣,能模仿青少年的措辞,并通过了美国法学院的考试。但有时,人们会发现它提供的信息完全是错误的,是胡编乱造的。
卡梅隆·琼斯和本杰明·卑尔根召集了650名参与者,参与者会和人或GPT模型进行简短对话,并被要求确定他们在与谁交谈。结果发现,GPT-4模型在41%的情况下骗过了参与者,而GPT-3.5模型成功骗过参与者的几率仅为5%至14%。有趣的是,人类仅在63%的试验中成功地让参与者相信他们不是机器。
研究人员总结道:“我们没有发现GPT-4通过图灵测试的证据。”
据上观新闻、科技日报
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!