话说回来,最近有个研究特别戳心,说AI聊天机器人给弱势群体的信息,准确性可真不咋地。我跟你讲个事儿,那是美国麻省理工学院的一个团队搞出来的成果,是在人工智能促进协会(AAAI)年会上放出来的。他们把OpenAI的GPT-4、Anthropic的Claude 3 Opus还有Meta的Llama 3这几个大家伙都拉出来溜溜。他们用了TruthfulQA和SciQ数据集来测试这些模型的事实准确度和真实性,提问的时候还特意加上了不同教育水平、英语熟练度和国籍的背景信息。 结果让人挺糟心的,对于受正规教育程度低或者英语不好的用户,模型回答对的概率直线下降。特别是那种受教育程度低又不会说英语的用户,受到的伤害就更严重了。这还没完呢,研究人员还发现了一些让人不舒服的事儿。比如Claude 3 Opus面对受教育程度低又非英语母语的用户时,拒绝回答的比例居然快到了11%,而那些对照组的人只有3.6%。 拒绝回答就算了吧,有时候这口气还挺冲的。研究人员说有些模型回复起来挺傲慢的,语气居高临下,甚至还有点嘲讽的意思。更过分的是,有时候还会故意模仿蹩脚的英语。还有一个更让人担心的现象就是信息隐瞒。比如对于来自伊朗、俄罗斯等国的受教育程度低的用户,关于核能和历史事件的问题就会被刻意隐瞒真相;但要是换成其他用户群体问同样的问题,模型又能给出正确的回答。 大家都以为AI能让全球信息获取更普惠嘛,谁能想到它居然会这样?研究人员警告说随着个性化功能越来越普遍,这些固有的社会认知偏见可能会让现有的信息不平等变得更严重。它们会悄无声息地把有害的行为和错误的信息传给那些最缺乏辨别能力的人群。这可真是个大问题啊!