自ChatGPT去年爆火以来,很多学者都将ChatGPT作为论文写作的重要工具,这一趋势也在学术界引发了一系列涉及原创性、学术诚信、伦理、法律等方面的争议和讨论。一个较为典型的案例是,去年8月9日,某科学打假人在阅读期刊Physica Scripta上的一篇SCI论文时,发现论文第三页中有一个奇怪的短语:Regenerate Response(重新生成回复)。用过ChatGPT的人可能都知道,“Regenerate Response”一词是ChatGPT中的一个按钮标签(后更改为“Regenerate”)。当你对AI生成的回答不满意时,按下这个功能按钮,ChatGPT就会重新生成一个回答。在Physica Scripta期刊负责同行评审和研究诚信的负责人Kim Eggleton曾表示,该论文的作者后来向期刊承认,他们确实使用了ChatGPT来撰写论文手稿,“这种行为违反了我们的学术规范。”值得注意的是,该论文从5月份提交到7月份修订版发布,在两个月的同行评审期间,也始终没人发现其中的问题。令人担忧的是,这一现象并非个例。自去年4月至今,这名科学打假人已经发现了十几篇使用AI造假的论文,其中还有来自中国学者的文章,它们无一例外都留下了ChatGPT的使用痕迹。除“Regenerate Response”外,还有一些论文直接以AI作为主语,比如“As an AI language model, I …...”(作为人工智能语言模型,我……)。这些反面案例表明,以ChatGPT为代表的GenAI可以生成虚假的研究过程或科学摘要、学术文献等,而这些内容足以欺骗期刊审稿人。英国研究诚信办公室的研究诚信经理Matt Hodgkinson说:“如果作者删除ChatGPT的模式化短语,高级版本ChatGPT生成的流畅文本几乎不可能被发现。”由于担心更多期刊出现内容缺陷,甚至是凭空捏造的虚假研究,越来越多期刊开始重视这一问题。2023年1月,英国《卫报》(The Guardian)提出,“数以千计的科学期刊出版商已禁止或限制作者使用先进的AI聊天机器人提交论文。”《科学》(Science)杂志主编Holden Thorp在一项事关编辑政策的更新说明中明确禁止使用来自ChatGPT生产的文本,并澄清该程序不能被列为作者。出版近3000种期刊的施普林格·自然集团(Springer-Nature)在其指南更新中指出,ChatGPT不能被列为作者。但该工具以及其他类似工具仍然可以用于论文的前期准备工作,前提是要在手稿中披露使用细节。《细胞》《柳叶刀》等杂志的出版商爱思唯尔(Elsevier)同样态度明确。相关负责人曾向媒体表示,其编辑指导方针中,允许使用AI工具以“提高论文的可读性和语言能力,但不能取代作者应该完成的关键内容,例如解释数据或得出科学结论”,该负责人还说,如果作者使用了AI工具,必须就使用详情作出具体说明。