负责任AI行动的使命
负责任AI行动致力于帮助出版机构应对快速发展的人工智能环境,通过制定清晰标准,推动人工智能在科研出版中的规范化与透明化使用。
建立明确的AI出版使用指南
我们倡导制定统一标准,覆盖包括人工审核情况的强制披露、AI应用场景的明确分类等关键内容。
守护科研作者的知情权
为全球研究人员提供清晰规范,推动AI工具在学术写作中的合规与透明使用。
为什么“负责任AI行动”势在必行
撤稿激增,
科研出版面临前所未有的挑战
与人工智能相关的论文撤稿数量正在迅速上升,科研诚信正面临前所未有的风险。随着 DeepSeek 等AI工具的普及,AI生成内容的投稿数量大幅增加, 不仅加重了编辑系统的负担,也在逐渐模糊作者责任的边界。这一危机正在不断加剧,出版机构亟需联合行动,为科研出版建立起可靠的AI使用规范。
*数据来源: Retraction Watch 撤稿数据库
(更新于2025年6月6日)
真实研究,
因AI误用反被视为造假
AI工具的使用缺乏明确标准,若未经过充分的人为审核, 可能掩盖真实研究成果的价值 ,甚至导致文章被撤稿。人工评估在AI辅助写作中不可或缺,但当前许多出版流程中对此环节尚无明确要求或规范,这不仅让作者面临潜在的伦理风险,也让出版机构的学术声誉承受考验。
*数据来源: Retraction Watch 撤稿数据库
(更新于2025年6月6日)
AI指南中的关键缺失:
出版机构亟需解决的问题
随着人工智能技术的飞速发展,现有的AI使用指南已难以跟上步伐,导致透明度和分类管理上的重要空白。
出版机构必须尽快行动,向科研人员提供明确规范,维护科学出版的公信力与信任基础。
透明度不足
- 许多出版机构要求作者披露使用AI的情况,但通常未强制确认AI生成或编辑的内容是否经过了严格的人工审核。
- 这种透明度不足导致出版机构难以判断稿件是否得到了充分的评审和把关。
- 若缺乏明确的人为审核披露,科研成果的诚信和可靠性将面临较大风险。
分类标准缺失
- AI在论文写作中的应用范围广泛,既包括简单的语言润色,也涉及全文内容的生成,但目前尚无统一的分类标准。
- 缺乏 明确的分类体系 , 导致作者无法确定其具体AI使用情形应遵循哪些规范。
- 因此,出版机构难以准确掌握稿件中AI的具体应用情况,给管理和监督带来较大挑战。

作者呼吁明确规范
Q.
如果期刊仅要求披露AI工具的使用情况,却不要求人工审核,那是否意味着未经人工验证的AI生成内容也可以发表?
Q.
如果我只是使用AI工具来协助语法修改或句子润色,是否需要逐一详细说明每次使用情况?还是只需做出概括性声明即可?
Q.
在多作者共同撰写的论文中,如果只有其中一位作者使用了AI工具协助写作,而其他作者没有使用,应如何披露这一情况,才能确保向期刊编辑和审稿人提供清晰透明的信息?
Q.
如果我仅在数据分析过程中参考了AI生成的见解,而未用于论文写作本身,是否仍需要在稿件中披露AI工具的使用情况?
Q.
如果我使用AI对已有研究进行改写和总结,但观点和引用内容均为本人整理,这种使用方式是否可以?是否仍需详细披露AI使用的全过程?
研究者困惑:
AI使用指南不明确
由于相关出版规范不够清晰或存在差异,许多研究者对如何规范、负责地使用AI工具感到迷茫。这种不确定性导致他们在披露AI使用时存在不一致,甚至可能无意中误用AI,从而增加了出版机构的风险,也使得伦理规范的落实更加困难。
加入“负责任AI行动”
您将收获什么?
推动负责任的AI使用,离不开清晰的出版规范与研究者的充分认知。 作为核心参与者,出版机构将在以下方面发挥关键作用,为科研人员提供: