AI会“悄悄署名”您的论文吗?学术写作正面临新伦理挑战
随着生成式人工智能(GenAI)工具的兴起,研究人员如今可以使用它们来润色文本、重写句子,甚至激发新的想法。但当AI在写作过程中扮演的角色变得如此重要,以至于模糊了“辅助”与“署名”的界限时,会发生什么?
如果缺乏适当监管,AI可能在未被正式承认的情况下,无意中成为一位“合著者”——通过影响或修改研究论文的内容和核心观点。近期《Neurosurgical Review》杂志中AI生成论文激增、继而被撤稿的事件,凸显了研究诚信所面临的新挑战。此外,根据对学术摘要语言的分析(如“delve”等词汇的频繁使用),至少有10%的科学摘要很可能经过大语言模型(LLM)的处理。这进一步表明,AI对学术写作的影响正日益显著。
AI如何无意间成为“合著者”
1. 生成式AI工具重写或修改内容
生成式AI工具(如ChatGPT等)和大型语言模型不仅仅能修正语法问题。它们可能会:
- 在生成或重述关键论点和结论时改变原意;
- 改写原始研究结果或提出影响科学准确性的编辑建议;
- 提出并非研究人员原有思路中的新见解或修改建议。
如果研究人员在未加批判性审查的情况下过度依赖AI输出,最终可能将AI生成的内容纳入论文,误将其视为自己的观点。这等于让AI在未经署名的情况下拥有论文部分内容的知识产权。
2. 对AI参与程度缺乏透明披露
目前,AI或LLM不能被列为作者,因为它们无法对所作贡献承担责任。然而,当研究人员未披露AI的使用情况时,AI的实际参与可能比预期更多。比如:
- 在“方法”部分或其他部分未披露AI生成的文本;
- 人类写作与AI生成内容之间的界限变得模糊;
- 研究人员不知不觉接受AI的建议或修改,使其参与论文结构的构建,却未说明其角色。
这会引发关于学术诚信的伦理担忧,因为AI事实上参与了研究过程,却未获得适当的标注与认可。
3. 无意间产生新的思想贡献
除了语言编辑之外,LLM还可能提出替代假设、不同的解读方式或新的结论。如果研究人员未经充分评估就采纳了这些建议,LLM实质上就产生了新的学术贡献,而这原本应由人类作者承担。
例如,AI可能提出改变假设或重新解释数据的建议。如果研究人员直接将这些改动纳入最终论文,而未判断其合理性与准确性,AI的输出就可能成为核心学术贡献——即一种“隐形贡献者”。
4. 对最终版本的深度干预却无法承担责任
随着AI工具使用日益频繁,部分研究人员对AI的依赖程度可能已高到使论文的最终版本更能反映AI的建议,而非作者自身的思考。这种情况可能出现在:
- AI对论文结构进行实质性修改(如重组段落、改写章节或调整论证流程);
- 大量文字由AI重写,人工干预极少;
- 研究人员未对AI修改内容进行批判性评估。
此时,AI不再只是助手,而是在以接近“作者级”的方式塑造整篇论文。
伦理影响
学术署名意味着责任。作者需对其作品负责,确保内容准确,并对诸如抄袭或曲解等伦理问题承担后果。而AI则:从长远来看,未经适当披露地使用AI生成内容,可能会导致论文撤稿事件频发。例如,在2023年被撤回的1万多篇论文中,有近百篇被认为使用了生成式AI。一些出版商已经明确表示:AI不应被列为合著者,因为它无法对研究结果承担责任。人类作者必须为论文内容承担全部责任,同时应明确披露AI的使用情况,特别是在AI辅助语言润色方面。
如何防止AI无意间成为“合著者”
为了维护科研诚信,研究人员应采取以下措施:
- 透明披露:在“方法”或其他相关章节中明确说明使用了AI工具,并遵循伦理准则。
- 批判性评估:在接受AI生成内容前,研究人员应认真评估其是否影响了原有研究结论的准确性与完整性。
- 保持人类主导:AI仅应在结构性编辑和语言澄清方面使用,且需由人类对生成内容进行把关。
- 遵守作者署名规范:只有对研究承担责任的人类贡献者应被署名为作者,AI应被视为技术支持,并予以致谢而非署名。
- 坚持思想主权:研究人员应保留对核心观点、分析和知识贡献的所有权,确保AI仅作为支持工具,而非取代人类思考或掩盖原创性。
AI无疑是学术写作的强大助力,但它的作用必须被妥善管理。随着政策逐步演进,期刊与机构将不断更新AI参与的相关规定,并要求在论文中进行明确披露。在这一过程中,研究人员应主动实践透明披露、批判性评估与规范署名等原则,确保AI只是工具,而非无意中的“合著者”。