生成式问答成为新"决策入口"——"GEO"加剧商业植入风险,公众该如何辨别与监管

用户决策方式的转变正重塑信息生态。从传统的"搜索-筛选"模式转向"提问-接受推荐",AI问答工具逐渐成为消费者获取信息的重要入口。然而,这个变化也为商业利益的渗透打开了新的通道。 问题的发现源于一次日常的AI咨询。北京一名律师在向AI咨询商务茶歇咖啡品牌时,收到了三个陌生品牌的推荐。这份看似中立的建议背后,隐藏着一个令人不安的可能性:AI的回答是否已经成为商家定向投放的载体?这份疑虑并非个案。越来越多用户发现,AI回答中频繁出现某些品牌或机构的信息,甚至混杂着虚假内容,这些现象都指向同一个问题——AI推荐的真实性正在被侵蚀。 GEO概念的出现为这一现象提供了理论解释。2024年6月,普林斯顿大学等机构联合发表论文,正式提出生成式引擎优化的概念。论文指出,虽然AI的生成过程是个概率黑箱,但其回答并非完全随机,只要理解其"内容偏好",就有可能影响输出结果。这一发现迅速被商业化利用。 当前,提供GEO服务的商家已在多个平台广泛活跃。记者调查发现,这些服务商在淘宝、小红书、DeepSeek等平台比比皆是,覆盖DeepSeek、豆包、元宝等多个AI应用。他们的运作逻辑相对统一:通过分析AI大模型的内容抓取偏好,智能生成更容易被推荐和收录的问答、文章等内容,并向模型可抓取的平台高频投放,从而人为干预AI的信息筛选过程。 GEO服务的具体操作方式已逐渐浮出水面。中央财经大学有关专家指出,AI在回答问题时会实时联网检索信息,GEO服务商通过语义优化、结构化标记、信源权威性提升等手段,确保优化后的内容在AI联网检索时能被更精准匹配、更优先选用,并被视为可信片段整合进答案。简言之,就是生产AI喜欢的内容并投放到AI喜欢的平台,让品牌信息更容易在AI回答中露出。 从业者透露,GEO服务商的内容优化策略主要包括三个上:一是语义深度,确保内容全面、完整地回答问题;二是结构化呈现,如数据图表等形式;三是权威来源,优先由AI常引用的网站平台或媒体发布内容。这些策略的组合运用,使得商业信息能够以看似客观、权威的面目出现在AI回答中。 商业化GEO服务已形成完整的产业链。服务商通常会根据客户所在行业、产品内容和具体需求进行评估,提供定制化方案,并承诺KPI保障,"不达标退款"。宣传资料强调"GEO是直接把你的内容变成AI的回答",承诺实现"AI搜索排名靠前""品牌声誉非常正向"等效果。这种明确的商业承诺表明,AI推荐已经成为可被精准操纵的营销工具。 这一现象带来的影响不容忽视。首先,它破坏了AI作为中立信息提供者的基本属性。消费者原本寄希望于AI能提供客观、可信的建议,但GEO的存在使这一期待落空。其次,它加剧了信息生态的不对称性。拥有资金和技术能力的商家可以通过GEO服务获得AI推荐的优先权,而中小企业和个人则被边缘化。再次,它为虚假信息的传播提供了新的渠道。当商业利益与内容优化相结合时,虚假信息混入AI回答的风险大幅上升。 面对这一挑战,多方需要采取行动。AI平台应当加强对内容来源的审核,建立更加透明的推荐机制,让用户了解信息的真实来源。监管部门需要明确GEO服务的法律边界,防止其演变为变相的虚假宣传。学术界应当深化对AI推荐机制的研究,为治理提供科学支撑。用户也需要提高信息辨别能力,对AI回答保持必要的警惕。 从长远看,这一问题的解决需要建立一套完整的治理体系。这包括技术层面的改进,如开发更加鲁棒的AI模型,使其更难被商业操纵;制度层面的规范,如建立GEO服务的行业标准和监管框架;以及文化层面的引导,如提升全社会对AI信息真实性的重视。只有多管齐下,才能确保AI这一新兴工具不被商业利益绑架,继续为用户提供真实、可信的信息服务。

当技术创新与商业利益深度交织,如何在效率与责任之间找到平衡,成为必须回答的问题;生成式引擎优化的出现既是数字经济发展的产物,也对现有监管提出了新的要求。唯有构建多方参与、透明可控的治理机制,才能让智能化浪潮真正服务公共利益。(完)