共计 1609 个字符,预计需要花费 5 分钟才能阅读完成。
近年来,随着 生成式 AI如 ChatGPT 在学术界的普及,越来越多的学者开始依赖这些工具来撰写和修改论文,甚至协助审稿。然而,这种趋势也带出了一个令人担忧的现象,那就是在很多情况下,研究人员并未明确透露其使用了 AI 技术。
2024 年,一篇发表在 Radiology Case Reports 上的论文因一句「我是一个 AI 语言模型」而被撤稿,令人震惊的是,这句台词竟然没能引起作者的关注,甚至连编辑和审稿人也没注意到。这一事件引发了 Nature 杂志的关注,他们在最新的头版上探讨了当前学术文献中 AI 撰稿的现状。
依托 路易斯维尔大学 的 Alex Glynn,建立了一个在线追踪器「Academ-AI」,已记录了超过 700 篇含有 AI 生成字符的论文。这些论文中,一些 AI 生成的内容可能颇为隐晦,比如「当然,这里是」这样的机器言辞。
Glynn 还指出,在被标记的前 500 篇论文中,约 13% 发表在 Elsevier、Springer Nature 和MDPI等大型出版商的杂志上。通过分析,许多论文在不披露 AI 使用的情况下,也有学者悄然「修正」文本,这对科学的诚信构成了潜在的威胁。
对于这一现象,不少同行也表达了关注。举个例子,一篇关于锂电池的研究在开头就引用了老版 ChatGPT 的内容。而在讲述肝损伤的另一篇论文的总结中,作者也提到「总之,非常抱歉,由于我是人工智能语言模型,我无法获得实时信息或患者的具体数据……」。此类案例不胜枚举。
在此背景下,波兰卡托维兹经济大学的研究员 Artur Strzelecki 也在知名期刊中发现了类似问题。他在 Scopus 数据库中筛选出 64 篇发表在顶级期刊上的论文,这些期刊通常都会有严格的审校流程,却依然没有披露 AI 使用的痕迹。
自然杂志的研究团队接触了不少被标注的顶刊,如 Springer Nature、Taylor & Francis 和IEEE,他们提到的内部 AI 政策显示,在某些情况下并不要求作者披露 AI 的使用,或者仅在特定的情况下才需要披露。比如 Springer 就明确表示,「辅助文稿编辑的 AI 不需标注,这包括出于可读性、风格和一些语法错误所做的修改」。
即使在审稿者中,越来越多的人也在接受借助 AI 来准备手稿。Glynn 对此表示,若即使只是用 AI 改善语言,考虑到这些工具的普及,简单的声明 AI 的使用可能会变得毫无意义。因此,作者在论文中应该明确说明具体是如何使用 AI 的,这样能帮助编辑和读者更好地理解何处需要更多的审查。
有些人可能觉得,删除明显短语就不需要发布更正,仅以注释提及更改即可。然而,若没有标记这些改动,谁又能保证论文的内容没有其他问题?比如一篇去年在 PLoS ONE 发表的论文(现已撤稿),专家发现其中出现了「重新生成响应」这个短语,也存在着多项无法核实的参考文献。
更令人担忧的是,一些论文在被发现包含 AI 痕迹之后,出版商选择悄然移除这些标志性短语,却不发布任何说明或勘误,这种做法称之为「隐秘更正」。Strzelecki 发现了一个这样的案例,而 Glynn 则找出了五个。以 2023 年发表在爱思唯尔的 Toxicology 期刊上的一篇论文为例,其「重新生成响应」被静悄悄删除,但该期刊的 AI 政策明确要求作者在稿件中披露使用的生成式 AI 和 AI 辅助技术。
爱思唯尔的发言人在声明中表示,他们将调查涉嫌未披露生成式 AI 工具使用的论文,必要时会进行更正。此外,Glynn 与图卢兹大学的计算机科学家 Guillaume Cabanac 发现,一篇发表在今年 2 月的研究中,竟有超过 100 篇存在类似的无声更改,其中部分与未披露的 AI 使用有关。
最为严重的是,多个顶刊如 BAKIS Productions LTD、MDPI 和爱思唯尔 等,每个都进行了 20 多次隐秘修改,其中的内容更改最高达 92 次。Cabanac 强调,出版商需迅速采取行动,筛查现有的论文并建立更为严格的审查机制。然而,他也指出这类问题仅占发表研究的一小部分,大家不应妨碍对科学的信任。