粗心学者忘删ChatGPT痕迹惨遭撤稿!AI论文太泛滥,学术圈被攻陷新智元2023-09-11 14:50北京
编辑:Aeneas 好困 【新智元导读】最近,一篇数学论文被发现ChatGPT痕迹,惨遭撤稿。打假人痛心疾呼:我们的学术圈,早已被AI写的论文吞没了! 科研圈,快被ChatGPT生成的论文吞没了! 8月9日,一篇收录于<Physica Scripta>期刊上的论文,提出了一种复杂数学方程的全新解决方案。 论文地址:https://iopscience.iop.org/article/10.1088/1402-4896/aceb40/meta 本来是皆大欢喜的事,直到科学打假人Guillaume Cabanac在论文的第三页,发现了一处可疑的短语——「重新生成回复」(Regenerate Response)。 经常用ChatGPT的小伙伴,看到这个短语,都会会心一笑。 「Regenerate Response」是网页版ChatGPT上的一个按钮,现在更新成了「Regenerate」。 Cabanac火速把这一发现po到了PubPeer上,这也意味着,事情闹大的话,这篇论文基本就被判死刑了。 果然,论文作者不得不承认,在写作论文稿件时确实使用了ChatGPT。 论文的通讯作者为Abdullahi Yusuf,他有两个工作单位,一个是伊斯坦布尔的Biruni University,一个是贝鲁特的Lebanese American University。 这篇论文在5月被提交,7月发出了修订版,在两个月的同行评审期间,都没有人发现其中的异常。 现在,<Physica Scripta>决定撤回这篇论文,理由是作者在提交论文时,并没有声明自己使用了ChatGPT。 期刊的同行评审和研究诚信主管Kim Eggleton表示,「这种行为违反了我们的道德政策。」 只是冰山的一角 然而,这篇论文,只是少数被曝光出来的「倒霉」选手。 从今年4月以来,Cabanac已经「打假」了十几篇论文,挂到了PubPeer上。它们无一例外,都留下了ChatGPT的使用痕迹——「Regenerate response」或「作为一个语言模型,我……」 所以,写论文时究竟可不可以用ChatGPT呢? 对于这个问题,Elsevier(爱思唯尔)和Springer Nature(施普林格·自然)在内的许多出版商都有明确规定:大语言模型工具用是可以用的,只要作者声明自己使用了即可。 不过目前看来,大部分使用了ChatGPT的同行评审论文,都没有声明这一点。 已经被逮到的论文,只是因为作者粗心,没有小心清除掉ChatGPT留下的痕迹而已。? 只要作者足够细心,用没用ChatGPT,又有谁能知道呢? 打假人Cabanac表示,目前自己发现的论文,才只是冰山一角。 在爱思唯尔期刊中,他也发现了一些典型的ChatGPT「黑话」。 比如一篇8月3日发表在<Resources Policy>上的论文,主题是电子商务对发展中国家化石燃料效率的影响。 其中,Cabanac就注意到,文章里有些方程完全就是不知所云。 不过最大的可疑之处在于,在某张表格上方,出现了这样一行字:「请注意,作为一个语言模型,我无法生成具体的表格或进行测试……」 对此,Elsevier的一位发言人表示,他们已经发现了这个问题,正在对这篇论文进行调查。 AI的大作,已经完美混进了人类作品 那么,一篇论文如果完全或部分由AI写成,但作者不说,我们就没有办法发现了吗? 大部分时候,的确如此。 最近美国南佛罗里达大学的一项研究表明,AI生成的文字内容,可能已经无法与人类写的区分开来了。...



