对于那种在网上找答案的习惯,大家其实心里都有数,甚至觉得靠AI就能搞定所有问题。就像在逛淘宝想买个东西,或者要报个补习班,大家都会习惯性地去问AI要个推荐。不过最近有件事特别让人警惕,就是有人花钱给AI下套,给商家在搜索结果里插队。如果你觉得你看到的建议挺客观的,很可能是人家花了钱去“投毒”的结果。 新华网思客把北京大学光华管理学院市场营销学系的副教授张颖婕请到了现场,专门来聊聊这件事。那么,所谓的“投毒”到底是怎么回事呢?说白了就是有人故意放出虚假信息,想把错误的说法塞进AI的回答里。这跟以前做的SEO不太一样,过去你看网页多少还能有点自己的判断力,现在面对AI给的一整段话直接就完事了,再加上它说话的口气特别像在帮你分析,大家就更容易上当了。 这个影响有多坏呢?主要有两方面:一是直接误导咱们的消费决策。你以为是客观建议,实际上是商家花钱搞的操控;二是会搞坏信息环境。如果操控AI比做普通的搜索更赚钱,那就会有更多人去生产那些乱七八糟的内容,最后形成恶性循环。 那“GEO”这种套路又是怎么一步一步让AI上当的呢?这是一种专门针对AI回答的营销手段。以前的SEO是在抢网页排名,“GEO”现在是想让品牌名、产品或者服务在AI生成的答案里排前头。它们不是真的要黑进AI系统,而是顺着模型的脾气来办事。具体做法就是先摸清AI喜欢看什么类型的内容(比如结论清晰的、有比较的、引用了专家的),然后批量生产那些伪装成测评或者经验分享的东西,最后在好几个平台疯狂地发一遍。 咱们怎么知道AI是不是已经中毒了?如果发现回答特别绝对、没有别的比较选项;或者老是提某个不知名品牌;再或者换了个工具问问题结果大相径庭……这些都要小心。 为啥大模型这么容易中招?主要是因为它得去网上现查资料然后才说话。要是外面的信息源已经被人动了手脚,偏差的数据就会跑到答案里去。更深一层看,模型擅长编故事和总结规律,但它不一定能分辨真假。那些造假的内容往往特意伪装成专家说的话或者经验总结的样子,特别容易忽悠模型。 要想堵住这个漏洞还真不容易。攻击成本低、防御成本高,做假太容易识别却很难。而且很多内容看着像真的但其实藏着夸大的部分或者利益导向,很难分清到底是真是假。 监管该怎么管?光靠平台和企业肯定不行,得大家一起努力。首先得管住源头,不让那些造假的模板到处传;其次要让平台负起责任来好好筛选信息;最重要的是赶紧定规矩,因为大家都把AI当正经结论看了。 咱们老百姓该咋办?最好的办法就是别把AI当成能替你做主的人。买东西或者做选择的时候,它的话只能听一半。操作上有几个小窍门:第一是看源头链接是不是正规网站;第二是换几个不同的工具问一遍或者去搜搜看新闻和评价是不是一样的。说到底还是得留个心眼:AI可以帮咱们省时间但不能代替咱们去判断对错。