邀 请 全 球 出 版 机 构
加 入 负 责 任 AI 行 动

通过协作与专业支持,共同守护科研出版的诚信与透明

负责任AI行动的使命

负责任AI行动致力于帮助出版机构应对快速发展的人工智能环境,通过制定清晰标准,推动人工智能在科研出版中的规范化与透明化使用。

建立明确的AI出版使用指南

我们倡导制定统一标准,覆盖包括人工审核情况的强制披露、AI应用场景的明确分类等关键内容。

守护科研作者的知情权

为全球研究人员提供清晰规范,推动AI工具在学术写作中的合规与透明使用。

为什么“负责任AI行动”势在必行

撤稿激增,
科研出版面临前所未有的挑战

与人工智能相关的论文撤稿数量正在迅速上升,科研诚信正面临前所未有的风险。随着 DeepSeek 等AI工具的普及,AI生成内容的投稿数量大幅增加, 不仅加重了编辑系统的负担,也在逐渐模糊作者责任的边界。这一危机正在不断加剧,出版机构亟需联合行动,为科研出版建立起可靠的AI使用规范。

真实研究,
因AI误用反被视为造假

AI工具的使用缺乏明确标准,若未经过充分的人为审核, 可能掩盖真实研究成果的价值 ,甚至导致文章被撤稿。人工评估在AI辅助写作中不可或缺,但当前许多出版流程中对此环节尚无明确要求或规范,这不仅让作者面临潜在的伦理风险,也让出版机构的学术声誉承受考验。

AI指南中的关键缺失:
出版机构亟需解决的问题

随着人工智能技术的飞速发展,现有的AI使用指南已难以跟上步伐,导致透明度和分类管理上的重要空白。 出版机构必须尽快行动,向科研人员提供明确规范,维护科学出版的公信力与信任基础。

透明度不足

  • 许多出版机构要求作者披露使用AI的情况,但通常未强制确认AI生成或编辑的内容是否经过了严格的人工审核。
  • 这种透明度不足导致出版机构难以判断稿件是否得到了充分的评审和把关。
  • 若缺乏明确的人为审核披露,科研成果的诚信和可靠性将面临较大风险。

分类标准缺失

  • AI在论文写作中的应用范围广泛,既包括简单的语言润色,也涉及全文内容的生成,但目前尚无统一的分类标准。
  • 缺乏 明确的分类体系 , 导致作者无法确定其具体AI使用情形应遵循哪些规范。
  • 因此,出版机构难以准确掌握稿件中AI的具体应用情况,给管理和监督带来较大挑战。

作者呼吁明确规范

Q.
如果期刊仅要求披露AI工具的使用情况,却不要求人工审核,那是否意味着未经人工验证的AI生成内容也可以发表?
Q.
如果我只是使用AI工具来协助语法修改或句子润色,是否需要逐一详细说明每次使用情况?还是只需做出概括性声明即可?
Q.
在多作者共同撰写的论文中,如果只有其中一位作者使用了AI工具协助写作,而其他作者没有使用,应如何披露这一情况,才能确保向期刊编辑和审稿人提供清晰透明的信息?
Q.
如果我仅在数据分析过程中参考了AI生成的见解,而未用于论文写作本身,是否仍需要在稿件中披露AI工具的使用情况?
Q.
如果我使用AI对已有研究进行改写和总结,但观点和引用内容均为本人整理,这种使用方式是否可以?是否仍需详细披露AI使用的全过程?

研究者困惑:
AI使用指南不明确

由于相关出版规范不够清晰或存在差异,许多研究者对如何规范、负责地使用AI工具感到迷茫。这种不确定性导致他们在披露AI使用时存在不一致,甚至可能无意中误用AI,从而增加了出版机构的风险,也使得伦理规范的落实更加困难。

%

的研究者希望出版机构提供可接受的AI使用指南。

%

的研究者希望出版机构帮助他们避免潜在的陷阱、错误和偏见。

%

的研究者希望出版机构分享AI使用的最佳实践和技巧。

*数据来源 Wiley人工智能研究报告

加入“负责任AI行动”
您将收获什么?

推动负责任的AI使用,离不开清晰的出版规范与研究者的充分认知。 作为核心参与者,出版机构将在以下方面发挥关键作用,为科研人员提供:

规范框架

提供一套实用框架,帮助出版机构在AI使用披露、人工审核与分类管理方面建立统一规范。我们还将协助评估和优化您现有的指南,确保其与行业标准保持一致。
查看详情

白皮书与工具包

获取可操作的白皮书和工具包,帮助编辑团队和作者有效识别、披露并管理AI生成内容,以实现AI的负责任使用和规范化披露。

与行业意见领袖(KOL)建立合作

通过圆桌会议及专属活动,与AI伦理领域的专家开展深度合作, 把握前沿动态,共同推动科研出版行业中AI负责任使用的最佳实践。

教育与培训

提供定制化的教育资源,包括线上讲座、播客节目及专项培训课程, 帮助您的学术社区深入理解AI在出版中的应用,并确保AI生成内容得到充分的人工审核。
查看详情
phone

Contact Us

周一至周五
9:00-18:00