文章主题:科研圈, ChatGPT, 插件, OpenAI
来源 | 科研圈(ID:keyanquan)

可用于 ChatGPT 的 11 个插件。|OpenAI
撰文 杜若云
编辑 吴兰、魏潇
在北京时间的3月23日,OpenAI 推出了第一款能够与 ChatGPT 对接的插件,总数达到11个,其中包括了来自第三方提供的插件。与此同时,OpenAI 官方也推出了两个自家的插件——Browsing 和 Code Interpreter。
在OpenAI官网上,我们发现第三方插件的功能丰富多样,不仅可以查询航班、预订机票(例如Expedia、KAYAK)、比较商品价格、购物(如Klarna Shopping、Shop、Instacart)等日常生活中的实用功能,还能检索实时信息(如FlscalNote)、进行数学运算(可以使用Wolfram)以及学习语言( Speak)。这些插件的存在,让ChatGPT得以跳出2021年之前的局限,真正实现”联网” functionality。
Wolfram 加持,数学能力显著提高
第三方插件的接入使得 ChatGPT 更加强大。作为大型语言模型(LLM)神经网络,ChatGPT 强大的生成文本材料能力有目共睹,但它并不能去做复杂的计算推理工作,也无法系统地产生正确的(而不是“看上去正确”的)数据。但在接入计算功能强大的 Wolfram 插件后,ChatGPT 不仅可以做这些事情,在计算层面上“胡言乱语”的习惯也可以被改正。
在以下的大学数学题目中,我们可以观察到接入插件前后的 ChatGPT 表现差异。图 1 中的 Genie 源自于代码编辑器 VScode,这是该软件的 ChatGPT 扩展,它能够模拟出未接入插件之前的 ChatGPT。

图 1 没有接入计算插件 Wolfram 前,ChatGPT 的“胡言乱语”。|作者

图 2 接入插件的 ChatGPT 给出了正确的答案。|[1]
通过简单的检查我们发现,在没有接入 Wolfram 插件时,ChatGPT 给出了一个“看起来过程很完美”但是结果完全错误的回答,但是在接入 Wolfram 插件后的回答是完全正确的。那么,这个插件是如何避免 ChatGPT “胡说”的?解决方法听起来很简单:ChatGPT 会通过插件将问题发送给 WolframAlpha 进行计算,然后根据返回的结果来“决定”回答什么。同时用户可以点击“Used Wolfram”按钮来检查 ChatGPT 是否“编造”回答。这意味着,通过 Wolfram 插件我们可以判断出哪些信息(计算相关)是正确的,哪些是“编造”的。
对于与现实世界有关的问题,ChatGPT 也可以靠这种方法给自己打上“补丁”。比如向无插件版 ChatGPT 提问土耳其的畜牧数量有多少时,它“郑重其事”地引用了土耳其统计局(Turkish Statistical Institute),并“编造”了一个看似合理的数据(图 3)。当使用接入Wolfram 插件的 ChatGPT 时(图 4),这个回答和 WolframAlpha(Wolfram 公司的一款软件,也是 Wolfram 插件背后的“回答者”)中给出的答案完全相同,这也从侧面验证了该插件的工作原理。

图 3 无插件的 ChatGPT 对土耳其畜牧业问题的编造回答。

图 4 有插件后 ChatGPT 能够给出正确答案。来源:[1]
目前,Wolfram 和 ChatGPT 的联动,仅限于 ChatGPT 将用户用自然语言询问的问题通过插件发送给 WolframAlpha。由于 WolframAlpha 的构建初衷就是处理各种“混乱”的类人自然语言并给出答案,因此它可以处理来自 ChatGPT 的用户询问,并通过插件返回答案[1],因此目前的 Wolfram 插件对于 ChatGPT 是一个简单版本,未来也许可以通过训练使 ChatGPT “搞懂”更复杂更强大的 Wolfram 语言,这对于 ChatGPT 的计算能力提高更为关键,对科研职业的作用也更为明显。
数学家危险了?
那么这是否意味着,插件的接入会使 ChatGPT 的功能足够强大到影响以至于取代某些职业呢?
根据 OpenAI 最近发表在预印本网站 arXiv.org 上的研究论文[3],我们可以看到不同职业对于 GPT 的“暴露”程度。这里的“暴露”是指将完成任务的时间减少至少一半,即当“暴露”程度达到 100%,GPT 能至少帮你将完成任务的时间减少一半。不同职业的“暴露”程度有所不同,最令人惊讶的是,数学家的暴露程度超越了很多看似技术含量不太高的工作,达到了 100%。作为对比,财务经理和平面设计师的暴露程度为 13%,公关专家和创意作家的暴露程度分别为 67% 和 69%,而经常“被失业”的翻译和口译的暴露程度,也只有 77%。

图 5 OpenAI 关于 AI 对不同职业影响程度的研究结果 来源:[3]
从论文发表的时间来看,这些数据是 GPT-4 发布后和 ChatGPT 插件发布前的数据,但从插件的作用和机制来看,插件的引入或许导致这些职业的“暴露”程度更高,同时会减少用户检查 ChatGPT 是否在“胡说八道”的时间。但这并不意味数学家将被取代,他们可以将大量繁琐的计算和代码工作交给 ChatGPT 来完成。这将大大提高科学家的工作效率,让他们有时间思考并进行原创性工作。如果 ChatGPT 可以帮助数学家和理论物理学家完成繁琐的计算,并得到大量结果,这也会对我们理解新科学大有帮助。

图 6 陶哲轩分享的 ChatGPT 使用心得 来源:[7]
著名数学家陶哲轩便经常在自己的博客[7]中分享自己如何在科研和教学中使用 ChatGPT。图 6 是他最近探索的几个小用法:他让 ChatGPT “阅读”已有的 arXiv 搜索 API 文档 ,并要求 ChatGPT 构建一个新的 arXiv 搜索查询,能够根据给定关键词和文章投递时间搜索论文。如果将得到的结果复制粘贴到浏览器中,还可以得到一个 RSS 订阅,其中含有 10 篇包含关键词”Collatz”和投递时间处于 2011 年到 2016 年的文章(图 7)。在这个过程中,ChatGPT 扮演着阅读 API 文档,并生成符合条件的搜索查询的角色。科研人员无需再搞懂如何操作 API,只要将自己的需求直接告诉 ChatGPT 即可获得想要的论文。(这是一个简单的示例,如何发掘出 ChatGPT 的潜力还需要各位读者发挥想象力。)

图 7 利用 ChatGPT 生成的 arXiv 论文检索结果的 RSS。|作者
除此之外,陶哲轩还会用 ChatGPT 帮自己备课,比如询问它在线性代数课堂中聪明的学生可能会提出的问题,来启发自己课程讲授以及布置作业的方向。在博客中他提到:“虽然这些 AI 工具无法直接帮助我完成核心任务——如尝试解决一个尚没有答案的数学问题,但是它们对于各种次要(但仍与工作相关)任务时非常有效(尽管之后需要一些手动调整)。”
隐私隐患如何解决
目前来看,这些职业是否会被 AI 取代,取决于后者的未来发展,但这毫无疑问会深刻改变我们的生活生产方式。OpenAI 公共政策主管 Anna Makanju 表示:“这项技术将深刻改变我们的生活方式。我们现在仍有时间来指导其发展轨迹、限制滥用并确保最广泛有益的结果。”[6]
除了职业安全问题,我们还需要关心一下自己的隐私。担心“聪明”的 ChatGPT “窃取”用户隐私是一个 AI 诞生起就如形随形的问题,而第三方插件的引入使得这个问题更加复杂——我们难以保证这些插件不会利用 ChatGPT 获得用户隐私来牟利。3 月 20 日,ChatGPT 出了一个几乎引发全网骚动的 bug,一些用户可以在自己的聊天页面里看到他人的聊天记录。OpenAI 不得不将 ChatGPT 强制下线修复[4],这令大批打工人叫苦不迭。更糟糕的是,ChatGPT 下线的几个小时里,一部分活跃用户的姓名、电子邮件地址、支付地址、信用卡号的最后四位和信用卡到期时间也被泄露,尽管 OpenAI 官方认为泄漏的数据量很少,但如何采取措施确保用户隐私安全将成为所有 AI 公司的首要任务。
如上述所提及的,AI技术如ChatGPT将在未来对社会生产与生活产生深远的影响,从而改变我们的工作与生活方式。因此,对于政策制定者和AI公司而言,如何确保这种新型的“人AI”模式能够顺利推进,并给人类社会带来积极的效果,无疑是一项巨大的挑战。
参考文献
在 Stephen Wolfram 的最新博客文章中,他探讨了 ChatGPT 获得 Wolfram 超级能力的重要性。ChatGPT 是一个基于 GPT-3.5 的聊天机器人,它能够通过自然语言处理技术来模拟人类的对话。然而,Wolfram 认为,ChatGPT 需要拥有更多的智能才能真正发挥其价值。Wolfram 指出,Wolfram 语言是一种高度结构化的语言,具有丰富的语义和逻辑信息。相比而言,ChatGPT 的语言模型则显得相对简单。因此,为了使 ChatGPT 更加智能,它需要从 Wolfram 语言中获取更多的知识。具体来说,Wolfram 建议将 ChatGPT 与 Wolfram 语言结合使用,以便让 ChatGPT 能够更好地理解人类的问题,并给出更准确的答案。此外,Wolfram 还表示,ChatGPT 可以利用 Wolfram 超级计算机的计算能力,以便在处理复杂问题时速度更快、效率更高。总之,Stephen Wolfram 认为 ChatGPT 需要拥有更多的智能才能真正发挥其价值。通过与 Wolfram 语言和 Wolfram 超级计算机的结合,ChatGPT 可以更好地理解人类的问题,并提供更准确、更高效的答案。
[2]https://openai.com/blog/chatgpt-plugins
[3]https://arxiv.org/pdf/2303.10130.pdf
作为一篇高质量的文章,我们需要确保所提供的信息具有可信度和可靠性。然而,在互联网上,我们经常会遇到一些不准确或误导性的信息。因此,我们需要学会如何辨别这些信息并避免被误导。在这方面,OpenAI 的这条推文就是一个很好的例子。尽管它可能包含了一些有用的信息,但它也存在一定的风险。首先,该推文来自一个特定的组织——OpenAI。这意味着它的观点和立场可能与我们的观点存在差异。因此,在阅读此类信息时,我们需要保持警惕并尝试从多个来源获取信息,以便更好地了解问题的本质。其次,该推文中提到的内容涉及到人工智能的发展和使用。这是一个非常广泛的话题,涉及到许多不同的领域和利益相关者。因此,在阅读此类信息时,我们也需要关注其中的细节和潜在的偏见。例如,该推文可能会忽略某些重要的因素或强调某些观点,从而影响我们对这个话题的理解。总之,在处理类似的信息时,我们需要保持警惕并采取适当的措施来确保我们所获得的信息是准确和可靠的。这包括从多个来源获取信息、关注细节和潜在的偏见,以及保持开放的心态来接受不同的观点和意见。
[5]https://openai.com/blog/march-20-chatgpt-outage
[6]https://openai.com/safety
[7]https://mathstodon.xyz/@tao
封面图来源:Pixabay。
本文经授权转载自科研圈(ID:keyanquan),如需二次转载请联系原作者。欢迎转发到朋友圈。


AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号aigc666aigc999或上边扫码,即可拥有个人AI助手!

