近日,美国开放人工智能研究中心(OpenAI)研发的聊天机器人程序ChatGPT上了热搜。
除了聊天机器人的功能,ChatGPT甚至能完成撰写邮件、视频脚本、翻译、代码,甚至写小说、做考试题和撰写学术论文。
ChatGPT能撰写专业性极高的学术论文,这引起了期刊编辑、研究人员和出版商的关注。
近日,JAMA杂志就此在线发表声明,提出人工智能(AI)、语言模型、机器学习等类似技术不具有当作者资格,不允许提交和发表由这些技术所生成的论文内容及图片。除非AI工具本身就是研究方案的一部分,作者应在文章中作出特别说明。
《自然》发表文章指出,大型语言模型工具正威胁着真实的科学,明确禁止任何大型语言模型工具(比如ChatGPT)成为论文作者,还建议使用这些工具的研究人员在稿件中应特别说明使用了AI。
学术出版界表示出对科学出版物中可能滥用这些语言模型的担忧。
有人通过向ChatGPT询问一系列有争议的话题,ChatGPT对问题的文本回答虽然写得很好,但都是格式化的(不容易辨别),不是最新的,可能存在虚假或捏造,没有准确或完整的参考资料,更糟糕的是,捏造不存在的证据。
OpenAI承认该语言模型的一些局限性,包括提供“听起来似乎合理但不正确或荒谬的答案”,而且目前的版本尚需要更新迭代,这表明该模型还不具备作为可信信息的来源。
社论指出,AI不仅带来了机会,也带来了风险。AI未来将会更快速发展,并将继续用于研究和信息传播,希望通过创新来抵消风险,对于促进和保护医学研究的可信度至关重要。
《科学》杂志也发表社论明确表示不接受使用ChatGPT生成的论文,不允许ChatGPT作为论文作者。ChatGPT生成的论文等同于剽窃。
社论中指出,科学记录是人类努力解决科学问题的过程之一。机器扮演着重要的角色,但它是人们提出假设、设计实验和理解结果的工具。最终成果必须来自于人类头脑中的“奇妙计算机”,并由它来展示和表达研究成果。
来源:
[1] Flanagin A, Bibbins-Domingo K, Berkwits M, Christiansen SL. Nonhuman “Authors” and Implications for the Integrity of Scientific Publication and Medical Knowledge. JAMA. 2023 Jan 31.
[2]Thorp HH. ChatGPT is fun, but not an author. Science. 2023 Jan 27;379(6630):313. doi: 10.1126/science.adg7879. Epub 2023 Jan 26.
[3]Tools such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature. 2023 Jan;613(7945):612.
转载:请标明“中国循环杂志”