文章主题:AI, 机器人, 人工智能, 自我意识

666AI工具大全,助力做AI时代先行者!

在科幻电影《机械姬》中,人工智能(AI)机器人艾娃展现了超乎寻常的特质,她拥有人类般的外观和智慧,甚至呈现出与人类相近的情感和欲望。她努力寻求与程序员迦勒建立情感纽带,进而争取自由。然而,艾娃的”心灵”实际上仅由电路和程序代码构建。这部电影堪称探讨AI自我意识及人性伦理问题的经典之作,引发了人们对这一领域的深度思考。

近期,OpenAI公司的共同创立者及首席科学家的伊尔亚·苏茨克维在《麻省理工科技评论》杂志的专访中分享了他对人工智能未来的期望与关切。他认为,如果我们对世界持有偏见,那么ChatGPT或许可以被视作具有意识的存在。

在过去的两年里,ChatGPT以及其他大型语言模型(LLM)以其惊人的表现在全球范围内引起了广泛关注。这些系统的出现,能够生成看似具备思考能力、理解力乃至创新能力的文本,令人瞠目结舌。甚至有关ChatGPT可能已经具备意识的讨论,也成为了网络上的热门话题,再次激发了人们对AI是否拥有意识这一问题的深度思考。这种种现象,无疑让人对人工智能的认知和理解达到了新的高度。

苏茨克维言论存在炒作嫌疑

去年11月,OpenAI推出了一款名为ChatGPT的先进聊天机器人。在短短几周内,该机器人迅速在全球范围内走红,甚至引发了新一轮的AI竞赛。仅两个月过去,ChatGPT的活跃用户数量便突破了1亿大关,吸引了大量人们对这个新兴领域的关注和探索。

在今年的9月25日,人工智能领域的领军企业OpenAI做出了一项重大的宣布,那就是他们将会让ChatGPT具备利用语音、音频与用户进行对话的能力。这一消息公布后,网络上流传着一些与之相关的视频,其中AI语音交互的语气、停顿、重音等细节都与真实的人际交流非常贴近。然而,也有人对AI在停顿那一秒是否真的是在思考提出了质疑。

事实上,10月初,苏茨克维就在其社交账号上声称,“大型神经网络具有轻微的意识”。

关于AI技术的最新发展,未来主义网站发表了一篇颇具观点的 article。该文中指出,尽管AI技术在过去十年间取得了显著的进步,但与人类智能相比仍存在较大差距,更别提具有意识地去感受世界了。这一观点引发了广泛的讨论和思考。

Mind Matters播客网站指出,那些AI领军人物将他们所创造的成果视为拯救世界的救世主,同时也可能成为潜在的死神,这种说法实在让人感到困惑不解。尽管如此,某些更为中立和客观的观点或许可以减缓这种炒作的热度。

罗伯特·J·马克斯,一位计算机工程师,是众多理智声音的代表之一。他再次强调,人工智能(AI)无法达到与人类相当的智慧或意识水平。AI的运作依赖于算法,其性能与人类情感和思维方式存在本质差异。

没有理由认为当前AI有意识

不过,也许这样的辩论陷入了语义混乱之中。

意识到底是什么?它能被量化吗?这本身就是令哲学家和科学家困惑已久的问题。

美国趣味科学网刊文称,哲学家将意识描述为具有独特的自我意识以及对周围发生的事情的认识。神经科学家通过分析人的大脑中整合和解释感官数据的活动,对如何量化意识提出了自己的观点。然而,将这些规则应用于AI是很棘手的。

粤港澳大湾区数字经济研究院(IDEA)讲席科学家张家兴在接受科技日报记者采访时表示,对于AI领域的从业人员来说,对“什么叫AI拥有自我意识”这件事情并没有一个很清楚的定义,自我意识很难像人脸识别、语音识别这些能力一样可以被定量衡量。

《自然》网站10月30日发表书评文章称,美国纽约大学神经科学家约瑟夫·勒杜在《存在的四个领域》中提出,地球上的生命有四种基本类型:生物生命、神经生物生命、认知生命和意识生命。勒杜坚持认为,意识只能存在于生物体内。即使模仿具备意识的生物的机制(无论这些机制从微观到宏观层面是什么),所产生的系统也不会有意识。

澳大利亚《对话》杂志今年也表示,“目前的这些AI系统真的能进行思考和理解吗?”不是一个可单纯通过技术进步来回答的问题。

新发表在预印本网站arXiv上的一篇论文称,今年3月发布的语言模型GPT-4未能通过图灵测试。

大脑如何产生意识依旧未解

据10月27日发表在《神经科学》杂志上的论文,爱沙尼亚研究委员会3名科学家认为,尽管AI系统具有复杂的反应,但这些系统不具备人类所拥有的具体经验或神经机制。因此,将AI的能力等同于真正的意识可能过于简单化了。

研究指出,语言模型缺乏我们通过感官与周围世界进行接触所获得的具体的、嵌入性的信息。同时,当今AI算法的架构缺少与哺乳动物意识相关的丘脑皮质系统的关键特征。此外,导致有生命、有意识的有机体出现的进化和发展轨迹,是今天的AI系统的发展轨迹所不可比拟的。

生命有机体的存在依赖于多层次的细胞活动,能动性和意识正是产生于复杂的有机体活动。因此,尽管人们想当然地认为ChatGPT和类似的系统可能是有意识的,但这严重低估了我们大脑中产生意识的神经机制的复杂性。

25年前,神经科学家克里斯托夫·科赫与哲学家大卫·查默斯打了个赌。科赫说,大脑神经元产生意识的机制将于2023年被发现。查默斯表示不可能。今年6月23日在纽约召开的意识科学研究协会年会宣布了这一赌局的结果:查默斯获胜。也就是说,大脑神经元产生意识的机制并未在今年被发现。

发表在《神经科学》杂志上的论文也认为,生物神经元是真实的物理实体,可以生长和改变形状,而大型语言模型中的“神经元”只是无意义的代码片段。我们距离理解意识还有很长的路要走,因此,距离研发有意识的机器还有更长的路要走。

《自然》网站文章称:AI系统会有意识吗?我们真的想要制造一台具有意识或能动性的机器吗?这些问题的答案都是不确定的。我们还不了解世界上哪些生物是有意识的,也没有建立起将这种可能性纳入考虑的伦理框架。在该文作者看来,成为一个去思考意识来源的生物,而不是一个渴望创造人工意识的生物,也许是更明智的选择。

【相关链接】

最新研究表明GPT-4未通过图灵测试

图灵测试是一种检验机器是否具有人类智能的方法。ChatGPT在AI领域成为“新星”的过程中,有一个问题一直存在:它是否通过了图灵测试。

美国加州大学圣迭戈分校的研究人员卡梅隆·琼斯和本杰明·卑尔根借鉴了艾伦·图灵的研究成果,设计了一个程序,以确定机器是否能够达到人类智力和对话能力的临界点。倘若达到临界点,那么它就足以让人误以为它是人类。结果显示,GPT-4未通过测试。相关研究报告《GPT-4能通过图灵测试吗?》于10月31日发表在预印本网站arXiv上。

ChatGPT给人的印象大多是聪明的、快捷的。在与人交谈时,它的回答很人性化,甚至可以表现得幽默风趣,能模仿青少年的措辞,并通过了美国法学院的考试。但有时,人们会发现它提供的信息完全是错误的,是胡编乱造的。

卡梅隆·琼斯和本杰明·卑尔根召集了650名参与者,参与者会和人或GPT模型进行简短对话,并被要求确定他们在与谁交谈。结果发现,GPT-4模型在41%的情况下骗过了参与者,而GPT-3.5模型成功骗过参与者的几率仅为5%至14%。有趣的是,人类仅在63%的试验中成功地让参与者相信他们不是机器。

研究人员总结道:“我们没有发现GPT-4通过图灵测试的证据。”

据上观新闻、科技日报

举报/反馈

AI, 机器人, 人工智能, 自我意识

Leave a Reply

Your email address will not be published. Required fields are marked *