为什么ai很依赖数据?

嗯,最近《自然》这本期刊发表了个挺有意思的研究。是芝加哥大学的詹姆斯·埃文斯教授带队做的。他们把1990年到2024年这三十多年来的4130万篇学术论文都拿出来分析了一下。结果发现,现在的科研人员真的挺依赖AI的,这个AI工具就像个“倍增器”,给他们的个人能力提了不少神。你看,用AI辅助研究的人,平均产出的论文量是没怎么用AI的同行的3倍多。引用次数也是4.85倍呢。还有就是,那些用了AI的人,通常能提前一年多成长为有影响力的学者。这效率是上去了。 但是呢,这个效率提升也带来了一些问题。比如全球的科研议题好像变少了,核心的研究领域缩减了4.63%。跨团队的交流也少了22%。芝加哥大学教授詹姆斯·埃文斯把这情况描述成“拥挤的孤岛”,就是大家都挤在一个热点上,却没什么交流。这时候大家更倾向于用AI在现有的框架里做些改进,而不是去探索新的东西。 为什么会这样呢?因为AI很依赖数据。数据多的领域就成了香饽饽,大家都往那边钻。结果就是大家用的方法都差不多,没有多样性了。这种趋同现象让那些数据少但可能有颠覆性创新的方向被边缘化了。 这个情况在不同学科也不一样。像计算机科学这些数字化程度高的领域,问题特别明显。但像人文社科这种需要实地考察的领域,受的影响就小一些。 现在全球的论文里用到AI的比例已经超过38%了,2025年这个数字估计还会更高。所以现在的科研管理机构面临一个大问题:怎么在保证效率的同时保护创新多样性呢? 我觉得我们得建立更好的技术伦理框架,鼓励跨学科交流,保护那些虽然数据少但很有意义的研究方向。只有这样AI才能真正帮助我们拓展认知边界而不是限制我们的探索视野。 你看这个问题吧,挺复杂的。它告诉我们在享受技术红利的时候也得小心点。不能只看个人产出增加了多少,更要看整体科学探索的版图有没有变窄了。 这次的研究真的给大家提了个醒啊!