这阵子大家是不是都挺依赖AI的?像啥旅游攻略、买家电、补习班推荐,大家第一个念头往往是去问AI。这种“遇事不决问AI”的状态,其实挺常见的。不过最近网上曝光了一条黑色产业链,让人看了心里发毛。原来那些看似客观的推荐,很可能是商家花钱买通了AI,给它“洗脑”的结果。新华网思客就邀请了北京大学光华管理学院市场营销学系的张颖婕副教授,来帮咱们分析分析这个事儿。 所谓AI“投毒”,说白了就是有人故意制造一些虚假、夸大或者有偏向性的信息,来影响大模型的回答。AI有可能会把这些信息当成依据,然后再把看似客观的答案推给你。它跟以前做SEO的玩法不一样,以前咱们用搜索引擎时还能有点判断力,现在跟AI聊天的时候,面对的是它直接给出来的答案,这种交互方式很容易让人产生一种错觉,觉得它是在帮你分析呢。它的危害主要有两点:一是误导消费者决策;二是污染信息生态。 那么GEO又是怎么一步步操控AI的答案呢?其实GEO的核心不在于“黑进AI”,而是“投其所好”。他们会顺着大模型检索和生成逻辑的路子走,提前把目标内容铺到AI更可能采纳的地方。具体步骤包括摸清AI偏好的信源和表达形式、批量生产伪装成测评或专家建议的内容、在多平台密集铺量制造假象等。 普通用户咋知道自己是不是碰上了“中毒”的AI呢?如果发现AI回答存在这些情况就得小心了:答案特别单一、语气特别肯定、缺了必要的比较;反复推荐某个品牌尤其不知名的品牌;或者一个问题问不同的AI给出的答案差异很大甚至互相矛盾。 为什么大模型容易被“投毒”?因为它在回答实时问题的时候得去检索外部信息然后再生成答案。一旦公开网络内容被污染了偏差信息就很容易进去。更要命的是大模型很擅长生成语言和归纳模式但没那么擅长判断真假。而“投毒”内容又特别爱伪装成测评专家建议等样子更容易骗到大模型。 治理这块儿难点在哪儿?主要是攻击成本低防御成本高。制造这些内容容易但识别和过滤难;还有真假边界模糊有些“投毒”内容不完全是假的而是夹杂了夸大误导等东西这就让识别变得更难了。 监管怎么堵住这些漏洞呢?得从源头治起压缩虚假内容传播空间;还要压实平台责任别光抓到什么就发什么;更重要的是把规则完善了既然大家都爱把AI当分析结论看那就得明确信息披露义务和责任边界。 咱们老百姓该咋防着点呢?心态最重要把AI当个梳理信息的工具别指望它替你做决定特别是遇到买啥选啥这种问题时它的回答只能参考不能当结论。具体操作上就是核查信息源看看是不是权威媒体或者查一下用户评价新闻报道和投诉信息是不是一致了。 归根结底防范AI“投毒”的关键不在于技术多复杂而在于保留基本判断习惯:AI能帮你省时间但没法替你承担责任。