文章主题:人工智能, 自然语言处理, ChatGPT, 革命
ChatGPT凭借其惊人的模拟人类语言和推理能力,被视为人工智能领域的一次重大突破。自从OpenAI在11月推出自然语言处理工具以来,它在众多用户测试的应用程序中展示出了令人惊奇的灵活性。这个智能聊天机器人的表现就像拥有魔力一般,能够创作诗歌、散文、食谱,翻译语言,提供建议,甚至还能讲笑话。
在这项技术的推动下,我们或许会在某种程度上体验到兴奋与恐惧的交织。它有可能颠覆传统的人类写作和批判性思维方式,从而改变整个行业。同时,我们也需警惕这种技术可能放大的个人偏见和偏见,以确保其应用不会对我们的认知产生负面影响。
对于从事人工智能领域的人士而言,ChatGPT 并非一蹴而就的网红现象,它实际上是历经多年实验与努力所取得的突破性成果。约翰霍普金斯大学的助理计算机科学教授 Daniel Khashabi 深入研究语言处理领域,并曾探索过類似的工具。
ChatGPT 被誉为可能引发技术革命的突破性成果。然而,实际上,这一技术多年来的发展并非一蹴而就,而是在近年来取得了显著的进步。
Khashabi 明确表示,ChatGPT 的出现似乎预示着一个新的时代的来临,这个时代充满了人类进步的潜力。他强调了这个时刻的重要性,因为这是我们重新审视“智能究竟意味着什么”的绝佳机会。他进一步指出,这是一个令人振奋的时刻,因为我们现在有机会去迎接过去看似难以触及的新挑战和新视界。
在微软对其工具的注资推动下,OpenAI 推出了付费版,同时谷歌也在积极筹备自家的试验性聊天机器人。各大媒体纷纷与Khashabi展开对话,以便更深入地探讨这项技术及其未来发展趋势。
问:您能解释一下 ChatGPT 的工作原理吗?
在第一阶段中,Khashabi并未引入直接的人工反馈机制。这个模型主要依赖大量来自网络的反刍文本来学习和理解语言结构。这些文本来源包括诸如维基百科、推特的在线社区、Reddit论坛以及纽约时报等各种语言的句子和段落。此外,该模型还接受了程序员编写的代码的训练,这些代码来自于GitHub等编程社区。
在第二阶段,也被称为「自我监督」学习过程,人类注释者积极参与其中,为训练模型提供指导,使其变得更加强大和复杂。他们针对ChatGPT收到的各类问题作出回应,使得模型能够根据指令,如「撰写一篇针对此话题的文章」或「修订这段文字」等,来调整自身行为并完成相应任务。
由于OpenAI掌控着丰富的资源,他们得以招募大量的标注人员,对其进行培训,使其标注出大量高品质的数据。据我了解,初始系统已经收到了近10万轮的人工反馈,这充分说明了背后投入了大量的人力物力。
但 OpenAI 的秘密武器不仅仅是它的 AI 技术,而是使用它服务的用户群体。每次有人查询他们的系统时,他们都会收集这些查询,以使 ChatGPT 适应用户正在寻找的内容并识别他们系统的弱点。换句话说,OpenAI 的成功在于赢得了数百万人使用其演示。
问:您个人如何尝试使用 ChatGPT?
Khashabi 答:它可以成为出色的写作和头脑风暴工具。我可以写一个我想到的想法的摘要,要求 ChatGPT 更复杂地扩展它,然后选择我喜欢的结果并自己进一步开发它们,或继续使用 ChatGPT 优化。这就是人机协同写作。正如 Twitter 上的某个网友所说的那样,「ChatGPT 是你大脑的电动自行车!」
问:您如何看待所有的关注和压力?
Khashabi 答:这是人工智能进步的又一个里程碑,值得庆祝。令人兴奋的是,人工智能和自然语言处理越来越接近于帮助人类完成他们所关心的任务。
然而,我担心过度炒作 AI 的状态。取得了进展,但「通用智能」仍未出现。在过去的几十年里,每次我们进步时,我们都会不断修改我们对「智能」意味着什么的概念。在 1960 年代和 70 年代,我们的目标是创建一个与人类下棋的系统。这样的例子还有很多。每次我们进步时,我们都会想,「就是这样!」 但过了一段时间,炒作消失了,我们看清了问题,并确定了新的需求。
「情报」一直是一个移动的球门柱,而且很可能仍然是一个球门柱,但我对在解决类似 ChatGPT 系统的缺点方面所取得的进展感到兴奋。
问:那些缺点是什么?
Khashabi 答:ChatGPT 很容易编造内容。如果你问 ChatGPT 一些它以前从未见过的小众问题,它会用流利和有争议的语言胡言乱语。例如,如果你要求它定义「 Venus Williams 在哪场比赛中赢得了她的第八个大满贯?」 它会给你一个答案,尽管 Venus Williams 已经赢得了七次大满贯。正如许多媒体报道的那样,她想赢得她的第八名,但她没有。该模型混淆了「想赢」和「赢了」这两个概念。
问题在于它如此流畅地执行此操作。它可能会给你带来垃圾,但使用如此流畅、连贯的语言,如果你不是该领域的专家,就可能会相信它说的是真的。这让我很担心,而且我认为面对看似清晰明确的输出,我们人类很容易上当受骗。
问:另一方面,ChatGPT 有什么令人兴奋的地方?
Khashabi 答:我们现在拥有这些工具,可以生成富有创意和流利的语言,这是我们花了数年时间应对的挑战。作为一名 AI 科学家,我对接下来的步骤感到兴奋,我们有新的问题需要 AI 来解决。
我对 AI 的目标——对人类智能进行逆向工程——不太感兴趣,而对 IA 或智能增强更感兴趣。我认为使用 AI 使人类能够做更好的事情同时增强人类的能力,是一个有价值的目标。我对这类协作系统感到兴奋。
问:您如何看待技术的发展?
Khashabi 答:我们仍处于这种变化之中,但我们将继续提高语言模型的效率,从而产生更紧凑但质量更高的模型。因此,我们将随处看到非常可靠的对话代理形式。未来的模型将成为你的网络导航助手,完成我们如今自己完成的各种基于网络的平凡任务。
同一套技术也开始进入物理世界。当前的模型(例如 ChatGPT)无法感知其环境。例如,他们看不到我的手机在哪里或我有多累。很快我们就会亲眼看到 ChatGPT。这些模型将使用不同形式的数据(文本、视觉、听觉等),这是它们每天为我们服务所必需的。
这将导致基于物理环境(包括物理对象、人类及其交互)数据的自我监督机器人。这里的影响将是巨大的。在不到 10 年的时间里,我们日常使用的任何物理设备——汽车、冰箱、洗衣机等——都将成为你与之交谈的对话代理。我们还将看到机器人在解决当今不可能解决的问题方面异常强大。想象一下,你正要像与 ChatGPT 交谈一样,与你的 Roomba 谈论你想做或不想做的事情。
同样重要的是不要忽视这些技术将如何在社会层面上改变事物。未来的多模式模型——有眼睛和耳朵的 ChatGPTs——将无处不在,并将影响一切,包括公共安全。但现在问题来了:在一个我们不断被有眼有耳的 AI 模型注视并不断变得更好的社会中,我们的自由和隐私会是什么样子?
这听起来像是著名小说 1984 中描述的反乌托邦社会。与任何其他技术一样,自我监督模型是双刃剑。我们现在能做的最好的事情就是保持警惕,在「应用程序出现之前」预见并讨论这些问题。理想情况下,我们需要开发框架,通过从 ChatGPT 等示例推断其未来的扩展来确保我们的自由和公平。我很乐观,我们会的。
来源:ScienceAI
链接:晒科网
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!