淮阴师范学院的徐菁提到,2月24日,中国的《中国药房》编辑部发了个声明,因为他们发现有些审稿专家用AI代劳了。编辑部在声明里说了,这种做法不但会影响他们和专家的信誉,还可能触犯法律跟伦理。AI现在已经渗透到科研的方方面面,审稿专家如果完全依赖算法来作判断,那就触碰到了学术规矩的底线,而且也动摇了大家对同行评审制度的信任。学术期刊的审稿机制其实是一场对专业权威的信任托付,专家手里掌握着决定研究成果生死的权力。这份信任来自于他们多年积累的知识和保持的职业操守。可是AI代审的出现把这个防火墙撕开了口子:没有保密措施的AI平台可能泄露原创成果,算法的错误判断也可能让评审结果失真,而模板化的评价更是会扼杀创新。 论文数量增长得这么快,人工评审确实受不了这个压力,AI工具的高效性就显得特别吸引人。不过方便并不能成为不负责任的借口。审稿可不是简单的核对文本格式和查重复率那么简单,里面还涉及到学术判断和价值筛选。AI可能很快就能指出格式问题或检索文献重复率,但它没法替人判断研究的创新之处,也不懂跨学科研究的深层逻辑。如果专家只是把AI的意见搬过来用一下,学术评价就会变成算法控制下的流水线作业。教育部那边对预防学术不端有明确的规定。 《中国药房》建议审稿人要清楚地说明自己用了AI这个辅助工具。这种透明化的要求既能肯定AI的价值又能划定人与机器合作的界限。不管你用不用AI,最终都是专家要对评审结果负责。学术的本质是求真求实,同行评审的核心在于人之间的智慧碰撞。AI虽然带来了效率革命但不能打破学术诚信这条底线。希望大家能记住初心,让学术评价回到正轨上来。