嘿,你听说了没?新研究给咱们提了个醒,说这AI生成的内容要是在上面加个标签,反而容易害了人。IT之家刚扒出来一个消息,现在AI生成的科学类帖子越来越多了,大家都担心这里面藏着很多假信息,骗人不说还能让你看不出来,最后把咱们的舆论和决策都带偏了。好在很多国家和平台都在推规定,想要通过更明确的标注来保护大家。不过《科学传播期刊》JCOM上刚发的文章却泼了盆冷水,说是这些标签可能会适得其反,既让人觉得真的东西不像真的,又让人觉得假的东西变得更靠谱了。 为啥会这样?主要有两个原因。一个是AI有时候会“幻觉”,整出一堆看起来有道理其实全是假的话;另一个是坏人可以故意教它说假话。所以各国都在搞透明度规定,让你看出来是不是机器写的。为了看看这个规定到底管不管用,北京中国社会科学院大学新闻传播学院的两个学生林腾(Teng Lin)和张逸青(Yiqing Zhang)搞了个大实验。“我们就盯着社交媒体上那些跟科学沾边的帖子。”林腾说。 这次实验从2024年3月搞到5月,他们用Credamo平台拉来了433个人做实验。他们一共准备了四种微博帖子:真实信息带不带AI标签,还有虚假信息带不带AI标签。他们用中国科学辟谣平台的内容让GPT-4改写成微博风,弄出了准确的和误导的两种版本。研究者还得先自己把把关。 参与者得给每条帖子打1到5分的分,研究者还测了大家对AI的负面态度以及对这个话题有多关心。结果有点反直觉。“最有意思的是我们发现了‘真伪交叉效应’。”林腾说,“同样一个标签,碰到真的内容会把它的可信度往下拉;但碰到假的内容,可信度反而能往上提。” 这个效应在咱们实验环境里特别明显。“这说明光贴个标签根本帮不上忙,反而把原本的可信度给搞乱了。”他解释道。他们还发现一个情况:要是你对AI本来就没好感,看到标了AI标签的真东西,你会更不信任它;但就算在这种人里面,假东西得到的好处也没完全消失。这就说明大家并不是一棒子打死所有AI内容,而是反应更复杂、更不对称。 这事儿提醒咱们搞监管之前得先好好测试一下。“我们在论文里提了点建议。”林腾说,“第一个建议是别光说一句‘这是AI写的’,最好加上‘未经核实’或者风险提示。”第二个是分级标注。“不同的科学信息风险不一样。”他补充道,“比如医疗健康的风险高得多,这时候标注就得更重一点。” 说白了就是得具体情况具体分析,不能一刀切。