315调查揭示生成式引擎优化被滥用:虚假信息“投毒”冲击智能问答公信力

生成式引擎优化技术的初衷是通过优化内容结构,让品牌信息更容易被人工智能大模型检索和推荐。但这项技术正被不法服务商滥用,演变成精准的数据投毒手段。调查显示,一些商家利用自动化工具在短时间内向全网散布大量虚假软文、假评测和虚构排名。他们通过人工智能模型的交叉验证机制制造多方印证的假象,最终将虚假信息误导为标准答案。这种做法已形成完整的黑产链条,不仅包括正面包装,还演化出恶意抹黑竞争对手的违法行为。 从技术操作层面看,不法商家的作案已形成标准化模式。通过"力擎GEO优化系统"等自动化工具,服务商可以精准操控人工智能模型。他们凭空捏造产品信息,编造"量子纠缠"等伪科学术语,制造虚假好评,同时利用软件自动操作自媒体账号,在几分钟内分发大量文章,形成信息茧房效应。针对人工智能模型每周更新算法的特点,不法商家持续投喂虚假信息,确保排名始终处于前列。这种有组织、有计划的投毒行为,已成为严重的市场秩序破坏者。 生成式引擎优化的滥用带来多重危害。首先,消费者对人工智能的信任基础遭到破坏。用户习惯向人工智能咨询以获取客观建议,但当发现推荐实际上是商家投入巨资进行的虚假宣传时,人工智能产业的公信力将面临严重危机。其次,市场竞争秩序被扭曲。大品牌占据优势位置,小品牌和不法商家则通过投毒手段抹黑对手或进行虚假宣传,形成"比谁更会投毒"的恶性竞争,导致真正优质的产品被虚假信息淹没。第三,信息生态面临系统性崩塌风险。生成式引擎优化产生的海量垃圾信息不仅直接干扰用户,还会被其他人工智能模型再次抓取和学习,造成"模型崩塌"现象。当人工智能开始学习由人工智能生成的虚假数据时,整个互联网的信息质量将陷入不可逆的退化。 面对此乱象,监管部门已采取行动。国家市场监督管理总局在2026年全国广告监管工作要点中,明确将人工智能生成广告列为监管重点。生成式引擎优化产生的软文本质上属于互联网广告范畴,必须遵守《广告法》及对应的互联网广告管理办法,标明"广告"字样,不得进行虚假宣传。这意味着不法商家的投毒行为已进入法律规制范围,相关违法活动将面临严厉处罚。 从产业发展角度看,人工智能大模型厂商也面临重要课题。如何提升模型的防投毒能力、加强对信息源的甄别、建立更加严格的信息验证机制,将成为2026年人工智能竞争的核心竞争力。这不仅关系到企业的市场竞争力,更关系到整个产业的健康发展。

技术进步本应为社会创造便利,但若缺乏约束,则可能沦为扰乱秩序的利器。此次事件不仅是对不法商家的警示,更是对技术开发者、监管者及全社会的共同考验。唯有平衡创新与规范,才能确保技术真正服务于公共利益。