问题—— 随着人工智能大模型加速进入搜索、导购、问答等场景,“模型回答即入口”的效应愈发明显。一些面向营销推广的“GEO优化”服务随之升温。记者多个网络平台检索发现,部分服务商以“让产品登上大模型推荐”“让广告成为标准答案”等为卖点,声称可通过技术手段和内容投放影响模型输出。与所谓业内服务商沟通时,对方将核心方法概括为“持续发稿、让平台抓取”,并称在算法频繁更新的情况下要维持“推荐稳定”,需要长期、密集投放与客户有关的宣传内容。 原因—— 多位从业者表示,GEO本质是提升信息分发与曝光效率的工具,但在流量竞争和转化压力下,部分机构将其异化为影响甚至操纵模型结果的手段。背后主要有三上诱因: 一是利益驱动明显。大模型问答正成为新的消费决策入口,一旦在推荐中靠前呈现,可能直接带来销量和品牌曝光,催生“以小博大”的投机冲动。 二是门槛被低估。借助自动化写作、矩阵账号分发等方式,短时间内就能生产和铺开大量同质内容,制造“声量”,提高被抓取与引用的概率。 三是治理存在滞后。大模型训练与检索链路长、数据来源广,外部内容一旦被批量注入,识别、溯源与纠偏往往需要时间,给不当营销留下空间。 影响—— 业内人士提供的一次测试引发关注:其通过某类“GEO优化系统”虚构一款智能手环并生成多篇宣传稿,集中发布到互联网平台。随后在部分大模型中以“智能健康手环推荐”等问题提问,出现将该虚构产品列入推荐并靠前呈现的情况。 受访专家认为,这类“数据投毒式营销”风险不容忽视: 其一,损害消费者权益。虚假商品、夸大宣传一旦被模型以“中立答案”形式输出,容易误导用户,增加消费决策风险。 其二,破坏市场公平竞争。通过“内容围猎”挤占正常信息空间,可能让优质产品与真实评价被淹没,形成“劣币驱逐良币”。 其三,削弱内容生态与平台公信力。模型输出若频繁夹带商业“私货”,公众对信息服务的信任将被消耗,影响行业健康发展。 其四,放大合规与安全风险。若被用于制造谣言、抹黑竞品或传播违法信息,可能引发更广泛的治理问题。 对策—— 多方建议从技术、平台、行业与监管协同发力,形成“源头治理+过程识别+事后追责”的闭环。 在技术层面,大模型服务方应提升对高重复、模板化、异常传播链路内容的识别能力,完善“可信数据源”和引用分级机制;对医疗、金融、消费等重点领域提高证据门槛与交叉验证强度,减少对单一来源或可疑站点的依赖,并提供更清晰的来源展示与纠错入口。 在平台责任层面,内容平台与账号体系应加大对批量发稿、矩阵操控、虚假测评等行为的治理力度,完善异常账号处置规则;对商业推广内容落实显著标识,推动广告与软文透明化,减少“披着科普外衣的营销文”进入公共信息池。 在行业自律层面,营销服务机构应明确合规边界,杜绝以“投毒”“洗脑”等话术诱导客户开展不正当竞争;行业组织可推动制定面向大模型时代的网络营销规范,建立黑名单共享与信用约束机制。 在监管协同层面,可结合反不正当竞争、广告管理、网络信息内容治理等制度工具,对“操纵大模型输出牟利”开展线索研判与执法联动,压实各环节主体责任,形成有效震慑。 前景—— 受访人士认为,大模型应用快速普及是趋势,但越是“答案型服务”深入日常生活,越需要在信息真实性、可追溯性与商业标识上作出制度化安排。未来,大模型服务或将从单纯追求“更像人”转向“更可信”,通过更严格的数据治理、更透明的来源展示、更及时的纠错机制,提高抵御外部操纵的能力。同时,公众也应提升辨别意识,对“唯一推荐”“绝对权威”等表述保持谨慎,重要消费决策尽量进行多源核验。
大模型连接着海量信息,也影响着公众认知与决策;对其进行“投毒”,表面是营销手法变形,实质是对公共信息环境的侵蚀。只有用规则明确边界、用技术加固防线、用执法形成震慑、用共治净化生态,才能推动大模型在可控、可信、可持续的轨道上发展,更好服务经济社会高质量发展。