科研写作加速迈入智能时代:顶刊禁署名背后折射学术责任与规则重塑

人工智能正以前所未有的速度进入科学研究。国际调查数据显示,全球科研人员研究和论文写作中使用AI工具的比例已达62%,过去一年增长22%。随着AI从数据处理的辅助工具发展为具备一定自主性的“研究参与者”,其在科研中的定位正在被重新讨论。围绕AI是否应享有署名权,学术界形成了两种截然不同的观点。支持AI署名的学者认为,当前AI已能在研究设计、数据解读、自主实验等关键环节发挥作用,甚至提出创新假设、发现人类未注意到的知识。基于这些被视为“创造性贡献”的表现,他们主张赋予AI“共同作者”甚至“独立作者”的身份。斯坦福大学去年主导的“Agents4Science 2025”学术会议也首次提出,可由AI担任论文主要作者与审稿人,以此推动其科研能力边界的扩展。反对AI署名的学者则提出了更有力的理由:尽管AI应用越来越深入,但其运行仍依赖数据、算法和人类指令,本身不具备自我意识与道德判断。更关键的是,一旦科研成果涉及抄袭、造假、侵犯隐私等伦理或法律问题,AI无法承担责任。基于这个点,《自然》《科学》等顶级期刊已明确禁止AI署名。该禁令背后主要基于两上考虑:从责任伦理看,作者必须能够对研究内容承担学术与法律责任,而AI不具备相应主体资格;从信念伦理看,作者身份意味着对原创性与诚信的承诺,AI既无法理解也无法履行学术规范要求。这两点构成了禁止AI署名的核心依据。尽管如此,学术界并未采取简单的“一禁了之”。越来越多期刊开始要求作者清晰披露AI的使用情况,包括具体工具、使用环节、生成内容占比,以及作者对对应的内容的修订与补充程度。《自然》《科学》等期刊更要求在论文“致谢”或“研究方法”等位置说明AI的实际贡献,以提高科研过程的透明度。AI的普及也带来新的风险。数据篡改、实验图片伪造、以生成内容替代原始数据等学术不端行为仍有发生。此前还曝出国外高校医学生用AI修改病人CT影像以通过考试的事件。针对这些问题,不少高校已出台措施,例如将论文“AI使用比例”控制在20%—40%,禁止用AI生成或改动实验与田野调查等原始数据,并明确作者需对AI生成内容承担最终责任。学术界对AI署名权的谨慎态度,预示着科研管理将更强调透明、公开、可重复与可验证。未来投稿流程中,作者可能需要提交《AI应用与贡献说明》等材料,完整记录AI在研究全过程中的参与方式与影响。这类制度既认可AI的工具价值,也维护人类研究者的主体地位与学术伦理底线。

当机器智能与人类创造力在科研前沿相遇,署名之争实质上是在重新界定知识如何被生产。在技术进步与学术伦理之间,人类既要保持开放,也要守住科学底线。正如诺贝尔物理学奖得主李政道所言:“真正的科学进步永远需要人类不可替代的洞察力。”未来科研生态如何建立,或将在人机协作与伦理规范的平衡中逐步明晰。