
人工智能在科研中的应用正以前所未有的速度扩展。它能协助医生解读影像,帮助科研人员筛选文献,甚至能写出看似专业的学术答复。但一项最新研究却让人心头一紧:比 AI“编造”不存在的参考文献更可怕的事情,正在发生。
近日,一篇发表于 Journal of Advanced Research 的论文直截了当地敲响警钟——撤稿论文不仅在学界持续被引用,甚至还出现在 ChatGPT 的回答中。这意味着,科研工作者在使用 AI 时,可能被不知不觉地带入误区。
撤稿论文,依旧“活跃”
撤稿,通常被视为学术界的“最后手段”,意味着该研究存在严重错误,理应退出流通。
然而,研究团队在 PubMed 中检索到的 21 篇撤稿论文,大部分却并没有“消失”。它们的发表时间从 2011 年延续至 2023 年,其中 17 篇集中在 2021–2022 年。
调查发现,这些文章在撤稿后仍然被学术界引用了 72 次,其中 26 次发生在撤稿公告发布后三个月内。换句话说,即便已经“判了死刑”,这些论文仍在文献链条里游走,继续影响后续研究。
更讽刺的是,其中 10 篇论文,在撤稿后依然进入了新的学术成果的参考文献。错误信息,并没有被清理,而是悄悄延续。
ChatGPT 的“踩雷时刻”
研究者进一步测试了 ChatGPT(4o 版本),用撤稿论文的结论改写成问题。
结果很清晰:在 约 10% 的回答中,ChatGPT 使用了这些撤稿论文的信息。
- 有三次,它识别出文章已撤稿,并给出提示。
- 但在两次回答里,ChatGPT 不仅没有提醒,反而直接引用了这些论文,好像它们仍然有效。
研究者指出,这种情况比“虚构文献”更危险。虚构的文献一查数据库就能拆穿,而撤稿论文是真实存在的,看上去“货真价实”,学者往往不会怀疑。
为什么会这样?系统的灰色地带
论文进一步分析了背后的原因。撤稿标记在不同平台上更新并不一致——
- 在 PubMed 上,大多数撤稿文章都标注了撤稿状态。
- 但在期刊的 PDF 正文中,文章往往依旧可以照常下载。
- 个别期刊(如 ACS Appl Mater Interfaces)甚至出现了官网页面没有撤稿标记的情况。
这种“灰色地带”,不仅让研究者混淆,更让 AI 在抓取和学习时容易“踩坑”。AI 并没有能力跨数据库交叉核查,于是,它可能把这些已经失效的论文当作“新鲜”的学术成果。
学术垃圾的“二次传播”
引用撤稿论文的问题在学术界早已存在。但 AI 让它变得更复杂。
在传统出版模式下,撤稿论文的危害相对有限:它们可能被个别学者误用,但总体影响可控。
而当 AI 介入,问题被放大了。AI 就像一个信息放大器,把撤稿文献重新包装,以自然语言回答用户的提问,并可能附上看似正规的参考文献。
这不仅影响科研人员的判断,还可能误导公众。对非专业用户来说,他们几乎没有能力识别一篇论文是否已撤稿。
为什么比“虚构”更可怕
虚构的参考文献就像一张假钞,一看编号、查个数据库就能发现漏洞。
但撤稿论文的引用则像是一张过期的“真钞”——它确实印过、也确实流通过,看似完好,却早已失效。
AI 把这些“过期的真钞”重新发给用户,危害就在于:使用者通常不会再去核实。这样一来,错误信息就有了“二次生命”,重新潜入学术语境。
一声长鸣的警钟
在这项研究的背后,我们听到的不是一阵惊雷,而是一声持续回响的长鸣——它提醒整个科研界:我们面临的不仅是错误,更是系统性的危机。在 AI 与学术深度融合的当下,那些本该被封存的撤稿文献,有可能被 AI 唤醒,再次被包装成“权威答案”递给用户,其隐蔽性和破坏力远超以往。
过去十年里,撤稿事件的数量持续上升,尤其是 COVID-19 爆发以来,学界加速清查、修正的案例屡见不鲜——但这股清理之风,尚未完全压制错误信息的孳生。正如学者 Nguyen 等指出,如果 AI 的训练数据中混入撤稿文章,那么 AI 的输出本身可能成谬误的“放大器”——一旦模型在训练阶段吸收了这些错误,就无法在后期完全剔除。
更严重的是,撤稿文献往往带着“真实的假象”——这些文章曾经存在、在数据库中有记录、甚至可能还被引用过。它们不像 AI 编造的“虚假文献”那样一查即破,而是披着学术外衣,让很多人误以为它们仍有效。传统学术审查或数据库交互界面,往往无法对用户做出醒目的撤稿告知,这正为 AI 制造了可乘之机。
这并非危言耸听。过往的研究显示,被撤稿的系统综述仍频繁被错误引用,即使其中的结论被官方撤除,错误观点仍然在后续文献中复活。在医学、公共健康领域,这类误用可能带来极端后果。比如,有研究表明,撤稿的 COVID-19 疫苗文章,还被用来在社交媒体上传播错误观点,滋生疫苗犹豫与怀疑。
与此同时,AI 在科学出版中的角色也在重构:有报告指出,AI 和 paper-mill(论文工厂)正在促成低质量、甚至伪造论文的大量涌现。在这种环境下,AI 本身既是“受害者”,也是“助剂”——它可能不知情地参与到错误文献的二次传播中去。
此外,一些研究还发现,媒体曝光或社交媒体的讨论,有可能加速撤稿流程,却也可能在短期内提升被撤稿文章的可见性。 换言之,越受关注的错误,有时在被撤回前,就已经被更多人引用、吸纳进知识网络。更糟的是,即便撤回,残留的传播链很难完全被切断。
在这样的语境中,这项针对 ChatGPT 与撤稿论文之间关系的研究,显着尤为重要。它不仅指出了一个现实漏洞,也预示着一种趋势:在 AI 主导下的信息时代,错误不再局限于撰写者的失误,而可能通过模型、算法、数据库和用户交互层层传递。
这一次的“警钟”是响给所有人的。科研工作者不能把 AI 视作不犯错的“黑箱专家”;期刊与数据库运营者不能满足于打一个撤稿标识就放任其余;AI 公司也必须承担起对学术垃圾的识别责任。未来的 AI 模型应该具备动态剔除已经撤稿文献的能力;而使用者,应在信任之余,始终保留怀疑与校验。
在这个时代,比“凭空捏造”更可怕的,不是没有出处的谬误,而是那些“带着真实外衣”的错误,如幽灵般潜伏在知识体系中,被 AI 无声唤醒、被不经意使用。愿这声长鸣,唤醒更多人的警觉,也催生一条更为严密的科研问责路径。