
前段时间,我读到 Nature Reviews Bioengineering 上的一篇短小但非常棒的社论——Writing is thinking。文章篇幅不长,却精准戳中了当下学术写作中一个正在被反复回避的问题:AI工具泛滥,用它来写论文都成了老生常谈的问题,当下,我们还有必要自己写论文吗?

这篇文章的观点很理性,甚至可以说相当克制,核心立场非常清晰:学术写作不是科研之后的“包装工作”,而是科学思考本身的一部分。在我看来,这一点对于今天大量依赖 AI 工具、同时又深受“写不出来”“没时间写”困扰的科研人,尤其值得被反复强调。
写作不是记录结果,而是逼迫你真正想清楚
科学论文的写作,本身就是科学方法的一部分。我们通常把“科研”理解为实验设计、数据采集和分析,而把“写论文”当成一个相对机械的收尾步骤——把已经想清楚的东西写下来即可。
但真实情况往往恰恰相反。很多科研人都有这样的体验:
- 实验做完了,数据也分析了,但真正的“主线”是在写引言或讨论时才慢慢浮现;
- 只有在试图用一段连贯的文字解释结果时,才意识到某些逻辑其实并不成立;
- 在反复改写一句话的过程中,突然意识到:也许问题本身该换一种问法。
正如社论中所说,写作迫使我们以一种结构化、目标明确的方式思考,而不是停留在头脑中那种跳跃、碎片化的想法状态。把多年积累的数据、实验和分析“写成一个故事”,本身就是一个不断筛选、压缩和澄清思想的过程。
这并不是一种修辞性的说法。文章引用的研究表明,书写(尤其是手写)与更广泛的大脑连接以及学习和记忆的提升相关。从认知层面来看,写作确实在“重塑思考”。
AI时代,问题不只是“能不能写”,而是“谁在思考”
第二个核心问题,作者其实直接指向当下最敏感的话题:如果 AI 可以几分钟生成一篇看起来还不错的论文,我们是否还需要自己写?
出版商的态度非常明确:
- AI不是作者,因为它不具备责任主体;
- 完全由 LLM 撰写的稿件不应被发表;
- 即便只是用于语言润色或编辑,也应当如实声明。
但比“作者资格”更重要的,是一个更深层的问题:如果“写作即思考”,那么当整篇文章由 LLM 生成时,读者究竟读到的是谁的思想?
这是一个非常尖锐、也非常现实的问题。我们或许可以接受 AI 帮助我们“把话说得更通顺”,但如果论文的逻辑展开、论证路径甚至观点本身,都是模型在统计意义上“推断”出来的,那这篇论文在多大程度上仍然代表研究者本人的科学判断?
“省时间”的幻觉:生成之后,编辑反而更费力
估计很多人会站出来反驳:AI能显著节省写作时间。但在文章作者对此持相当谨慎的态度。原因有两个:
第一,当前的 LLM 仍然会产生事实性错误和所谓的“幻觉”。引用可能是编造的,论断可能看似合理却并无依据。结果就是:每一句话、每一条参考文献,都需要作者逐一核查。
第二,也是更关键的一点:要有效编辑一段文字,你必须真正理解其背后的推理逻辑。如果一段文本并非出自你自己的思考,而你又需要对其负责,那么“修改”本身就会变成一项认知负担极重的工作。
不少科研人已经有过类似体验:
看起来 AI 写得挺顺,但改着改着发现,还不如自己从头写。从这个意义上说,“AI 节省时间”在当前阶段,更多是一种情境依赖、而非普适结论。
工具,而不是替代
需要强调的是,那篇文章的作者以及包括我在内并不是出于“反 AI 写作”的目的。相反,我们只是想对 LLM 在学术写作中的合理用途给出清晰、务实的定位。
例如:
- 改善语言流畅度和语法准确性,尤其对非英语母语作者非常有价值;
- 帮助检索、整理和总结跨学科文献;
- 在头脑风暴阶段,提供要点、替代表达或不同解释路径;
- 在写作受阻时,作为一种“启动器”帮助作者继续推进。
这些用途的共同特点是:AI 参与的是“表达层”和“辅助思考”,而不是替代核心判断。真正的研究问题、论证逻辑和科学立场,仍然需要由研究者本人完成。
我们会不会逐渐丧失“写作能力”?
文章的结尾提出了一个在我看来非常重要的担忧:
如果我们把整个写作过程外包给 LLM,我们失去的不只是一篇论文的控制权,而是一次反思自己研究领域的机会。写作能力并不只服务于论文发表。它同样影响我们:
- 如何设计研究问题;
- 如何在组会、答辩和评审中清晰表达观点;
- 如何判断一项研究是否真正“讲得通”。
一旦长期放弃这种训练,损失的可能是一整套科研思维能力,而不仅仅是“写作技巧”。
最后
AI 可以成为科研写作的工具,但不应成为科研思考的替身。对于科研人来说,一个更现实、也更可持续的策略或许是:核心思想、结构和论证,尽量由自己完成;在此基础上,理性、透明地使用 AI 工具提升表达质量;始终记住:你写论文,不只是为了“发表出去”,而是为了真正理解你自己在做什么研究。
在这个意义上,“写作即思考”并不是一句空洞的口号,而是一条在AI时代依然有效、甚至更加重要的科研原则。
