智能推荐暗藏商业推广乱象 专家呼吁构建全流程广告监管体系

近日,北京消费者黄女士向记者反映,在使用AI工具咨询产品选购建议时,系统推荐的多个品牌实际上是营销账号发布的内容,其中甚至包含曾被监管部门处罚过的企业。

这一现象并非孤例。

记者在社交平台调查发现,越来越多AI助手用户遭遇类似困扰,原本中立的知识咨询服务逐渐演变成精准的商业推广渠道。

AI工具研究者田威向记者介绍了这种现象的成因。

他表示,AI工具的推荐结果主要源于训练数据中的互联网内容。

这些网络数据本身就包含大量商业信息、产品评测和营销素材。

随着商家对AI工具推荐机制理解的深化,更加主动和隐蔽的营销策略应运而生。

根据调查,商家在AI工具中"塞入广告"主要通过两种路径实现。

其一是利用特定提示词引导AI工具生成预期答案,随后将AI的推荐内容单独截取并对外宣传,制造"客观推荐"的假象。

其二是更为隐蔽的"信息投喂"战术。

商家针对AI工具常引用的社交媒体平台,有针对性地制作内容并批量发布结构化软文,巧妙将产品植入看似客观的推荐中。

这些内容通常冒充"用户真实体验"或"专业测评",实际上均为精心设计的营销素材。

市场上已出现专门从事生成式引擎优化服务的商业机构。

某推广人员向记者透露,通过事先大批量发稿,可针对性提升产品在主流AI平台的信源引用权重,使其在AI推荐榜单中排名靠前。

这类服务的收费标准为每次五千至一万元。

北京理工大学智能科技法律研究中心研究员王磊指出,这种未经标注、通过技术手段隐性植入的商业推广存在明显的合规风险。

生成式引擎优化的核心目的在于将商业推广伪装成AI工具基于海量数据计算后得出的客观结论,直接侵犯了消费者的知情权和选择权。

此外,为实现AI工具的抓取和推荐,投放方往往制造虚假数据或操控评价,这些行为可能构成虚假宣传或不正当竞争。

传统的互联网广告监管模式面临新的挑战。

王磊分析称,以往的监管重点聚焦于广告发布后的违规内容,采取末端治理思维。

但在生成式引擎优化模式下,广告植入发生在上游的数据"投喂"阶段,远在广告最终呈现之前。

这种隐蔽性强、跨平台流动的特点使得传统监管框架捉襟见肘。

为有效应对这一挑战,王磊建议监管部门必须转变思路,从末端治理向全流程治理模式转变。

这意味着监管需要覆盖从数据生成、内容发布、平台引用到最终推荐的整个链条。

相关部门应明确界定生成式引擎优化行为的法律属性,建立针对性的审查和处罚机制。

同时,AI平台运营方也应承担相应责任,建立内容溯源机制,对推荐结果的数据来源进行透明标注,让消费者能够识别哪些内容来自商业投放。

业内人士认为,解决这一问题需要多方协力。

监管部门应加强对生成式引擎优化服务商的规范管理,明确其从事此类活动的法律底线。

AI平台需要完善算法透明度,建立用户反馈和投诉机制。

消费者也应提高警觉,对AI工具的推荐结果保持理性态度,主动追溯信息来源。

工具越接近“可信建议”,越需要对其背后的信息来源与商业关联保持透明。

对隐性推广的治理,既是对消费者知情权的守护,也是对公平竞争与数字生态健康的维护。

把监管关口前移到数据生产与传播环节,并在输出端建立清晰的标识和问责机制,才能让技术更好服务公共利益,让“推荐”回归可信与克制。