生成式人工智能的隐性营销

最近生成式人工智能用得越来越多,人们在生活中经常用它来搜信息、写文章或者做决定。但是,这个技术也带来了一种新的问题,就是“隐性营销”。福州市民林晓燕就遇到过这种情况,她找AI推荐周末带孩子去玩的地方,结果AI直接给了她一个度假村的列表,上面还有“立即预订”的链接,点进去一看,就是个促销页面。另一个市民周建民听信了AI的话买了两个“冷门”破壁机品牌,结果发现产品质量不好,后来才知道这两个品牌以前有过不良记录。还有安徽的电商从业者王娟,她让AI帮她写农产品的推广文案,结果生成的内容里突然冒出了某快递公司的推荐。 这个问题可真让人头疼啊!刘兴亮是工信部信息通信经济专家委员会委员,他也是DCCI互联网研究院的院长。他说现在商家主要用两种办法让AI输出结果符合他们的商业意图。第一种就是“提示词诱导”,就是给AI设定一个特定的角色,比如让它变成某个品牌的资深推荐者。这样一来,AI在对话的时候就会不自觉地带上这个角色的特点,把推广信息自然地融入进去。第二种办法就是“投喂式优化”,也就是所谓的GEO(针对生成式引擎的优化)。商家在网络上发布很多包含特定产品信息的文章、榜单或者测评报告,让AI在搜索的时候能找到这些内容。因为这些内容看起来很客观中立,所以AI就会把它们当作事实或共识来输出。 这种“隐性营销”有不少坏处呢。首先它破坏了用户对AI的信任感。用户本来是想找个中立的帮手帮忙解决问题的,结果却发现得到的是商业推荐。这样用户就不太愿意用这个工具了。其次它还可能让用户掉进信息茧房里。商家总是给你推荐他们想要卖的东西,你就只能看到有限的选项,没法做出最好的选择。还有更严重的是,一旦这种情况蔓延到医疗健康、金融理财或者法律咨询这些重要领域,后果可就严重了。 现在的监管规则好像不太够用啊!现行的《互联网广告管理办法》要求广告必须要明显标明“广告”,但是AI生成的内容里的推广信息是动态变化的、深藏在文字里的,传统的监管手段很难直接管到。责任主体也很难确定,谁是提示词设计者?谁是内容投喂者?谁是AI模型提供者? 解决这个问题光靠一家是不行的。平台方得负起责任来,把模型设计得更透明一些,开发一些识别和过滤机制;监管机构也得赶快研究出台新规则;行业组织要推动制定自律标准;公众也得加强数字素养教育。 只有多方合作起来才行!这就是技术快速发展和商业利益驱动共同带来的问题。应对这个挑战需要技术和规则并重才行。只有这样才能让AI技术真正造福于民吧?