问题——大模型答案被“优化”,广告披上“中立外衣” 每年“3·15”晚会聚焦消费领域突出问题。今年曝光的一项内容指向新型网络营销乱象:部分网络平台上,有服务商公开售卖“生成式引擎优化(GEO)”服务,宣称可通过内容投放与传播运作,让客户品牌、产品在多家主流大模型的回答中获得更高出现概率,甚至被纳入“推荐清单”“对比结论”等看似客观的回答之中。对应的从业者在镜头前坦言,通过向模型可抓取的信息源“投喂”特定内容,达到影响回答结果的目的。此类行为一旦规模化,商业信息与公共信息边界被模糊,消费者对大模型“更客观”的信任可能被利用。 原因——搜索形态变化叠加信任偏好,催生“答案入口”争夺 生成式产品在检索、问答、推荐等场景加速普及,正在改变传统信息获取路径:过去用户通过搜索引擎获得链接,再自行比对甄别;如今大模型往往直接给出结构化结论,省去了“点击—阅读—判断”的过程。这种“直接答案”效率更高,但也使答案本身成为新的流量入口和心智入口。 ,企业端出现强烈的“被看见”诉求:手机推荐、求职选择、志愿填报、健康科普、金融消费等高频问题,直接关联购买与重大决策。对商家而言,若能影响大模型回答,就可能以较低成本获得更隐蔽、更高效的品牌渗透。部分机构捕捉到这个变化,将传统搜索领域的优化逻辑迁移到生成式场景,通过批量“发稿”、矩阵分发、话题包装等方式构造可被模型引用的材料,形成牟利链条。 更深层的原因在于信任结构的变化。由于大模型回答往往以“解释+理由”的方式呈现,并带有“非广告化”的表达风格,部分用户容易将其视为中立建议,降低了对信息来源、利益相关性的审查强度。这种信任一旦被商业化操控,就会放大风险外溢。 影响——从消费误导到公共决策偏差,风险不止于“买错商品” 其一,侵害消费者知情权与公平交易权。若营销内容未按广告要求显著标识,甚至以“测评”“对比”“权威建议”形式出现,可能导致消费者基于不完整或失真的信息作出购买决策,影响市场公平竞争。 其二,放大信息茧房与舆论操纵风险。大模型回答的“权威感”更强,一旦被系统性影响,可能在特定话题上形成单一叙事,挤压多元信息空间。 其三,冲击平台生态与内容生产秩序。围绕“可被引用”的投喂与搬运,容易催生低质、同质甚至虚假内容泛滥,反过来降低模型输出质量,形成“越投喂越失真、越失真越依赖投喂”的恶性循环。 其四,影响教育、就业等重大决策安全。高考志愿、职业选择等强决策场景中,若答案受商业利益驱动而倾斜,可能对个人发展产生长期影响,也会引发社会公平层面的担忧。 对策——标识、溯源、审计与执法并举,堵住“答案被操控”的灰色通道 治理此类新型乱象,需要形成“平台责任+行业自律+监管执法+公众素养”合力。 一是强化商业内容显著标识。对可能带有商业合作、推广佣金、导购分成等利益关联的信息,应在生成式结果中以清晰方式提示,避免广告“隐身”成中立建议。 二是完善引用溯源与证据链展示。推动大模型在关键结论处提供可核验的信息来源,便于公众追溯内容出处、判断可信度;对高风险领域(医疗、金融、教育等)提高来源门槛与引用标准。 三是加强平台侧反作弊与安全审计。针对批量发稿、异常传播、站群矩阵等操纵行为建立检测机制;对可疑内容源、异常提及模式开展模型安全评估与数据治理,降低被“投喂”影响的可能性。 四是明确合规边界与责任追究。对以技术或内容运作实施虚假宣传、不正当竞争、侵犯消费者权益的行为,应依法依规查处;对提供“操控答案”服务的平台与机构,压实主体责任,形成震慑。 五是提升公众数字素养。引导用户将生成式回答视作参考而非裁决,养成交叉验证、查看来源、识别利益相关的习惯,尤其在重大决策上避免“单一答案依赖”。 前景——生成式服务走向“基础设施化”,治理必须同步升级 生成式技术正加速嵌入搜索、办公、教育、政务服务等场景,未来“答案入口”的影响力将持续上升。可以预期,围绕生成式结果的商业竞争将更加激烈,新的合规框架与技术标准也将加快建立:一上,平台需要用更强的透明度、可解释性与安全策略维护公信力;另一方面,监管部门与行业组织也需针对新业态完善规则供给,推动广告标识、数据治理、内容真实性核验等制度落地。 更重要的是,必须守住一条底线:技术进步不应以牺牲真实与公平为代价。只有让“可被信任”成为产品能力的一部分,生成式服务才能真正成为提升效率、服务民生的可靠工具。
大模型改变了信息获取方式,但不能改变商业诚信原则。警惕"答案操纵",既保护消费者权益,也维护数字时代的公信力;只有确保技术可靠、规则清晰、责任明确,才能让每一次信息获取都更接近事实真相。