生成式人工智能里的隐性推荐

生成式人工智能里的“隐性推荐”最近惹得大家都很关注,专家们也在呼吁,得赶紧建立一个协同治理机制来防范风险。现在技术发展得太快,大家已经习惯了用智能工具来帮忙做消费决定或者规划生活。可是最近,好多地方的用户都吐槽说,有些人工智能的回答里偷偷藏着商业广告,很难让人看出来,这就让人开始担心技术是不是真的中立,信息也真的可靠了。福州的林晓燕给记者讲了一个她的遭遇。她用某个人工智能工具搜周末带孩子去哪儿玩的时候,系统直接给她列出了三个度假村的信息,还附上了预订链接。一打开页面全是弹窗搞促销,“这和我想要的那种中立推荐完全不一样啊。”林晓燕说。类似的情况可不止她一个遇到。周建民根据人工智能推荐的“性价比很高的破壁机”买了个设备,结果发现性能跟描述差得很远,退货的时候还惹了一堆纠纷。后来一查才知道那个品牌以前就因为虚标参数被罚过。更让人没想到的是,就算你根本没问产品的事,也可能被偷偷塞进去。安徽省有个做电商的王娟,在用人工智能写农产品推广文案的时候,生成的内容里竟然自动夹带了某个冷链物流品牌的广告语。“我根本没提过要推什么品牌,这明显就是未经许可的推荐啊。”王娟直截了当地说。“这些隐性推荐到底是怎么弄出来的?”工信部信息通信经济专家委员会的委员、DCCI互联网研究院院长刘兴亮分析说,现在主要有两种做法。一种是商家给人工智能设定一个角色,让它按照预设的剧本来推荐产品;另一种是通过生成式引擎优化技术,让大量的软文和榜单混进知识库里头,这样系统检索出来的结果就会优先显示特定商品的信息。“这种做法其实就是以前的搜索引擎优化在生成式AI里的翻版,但因为它是动态生成的、内容混得很深,监管起来就特别麻烦。”刘兴亮指出,现在管广告强调的是内容得容易识别,可人工智能里的推广信息常常是自然地融到叙述里头的,传统的标识方法根本用不上。这种技术上的隐蔽性带来的影响已经很明显了。一方面是用户太信任AI的中立形象了,防备心就低了点,容易掉进人家精心设计的信息茧房里;另一方面要是在医疗健康或者法律咨询这种高风险的领域出现误导性的推荐,后果可就严重了。长此以往,这会大大削弱大家对AI辅助决策的信任基础。为了解决这个治理难题,专家们都强调要大家一起动手。技术平台得把模型弄得更透明点,建立起内容的溯源路径;监管部门得研究出动态监测的标准;用户自己也得提高数字素养。“有的平台已经开始试那种标注功能了。”就是用技术提示哪一段可能有商业引导的意思。“生成式AI正在改变大家获取信息的方式。”它背后的伦理规矩和治理体系得跟上才行。推动技术变得更有善意不能光靠改算法,“还得把技术研发、平台运营、行业监管和公众监督这几个环节都串成一条链才行。”只有在创新和规范中间找到平衡,“才能让AI真的变成可靠的助手。”