近日,北京消费者黄女士向记者反映,在使用AI工具咨询产品选购建议时,系统推荐的多个品牌实际上是营销账号发布的内容,其中甚至包含曾被监管部门处罚过的企业。
这一现象并非孤例。
记者在社交平台调查发现,越来越多AI助手用户遭遇类似困扰,原本中立的知识咨询服务逐渐演变成精准的商业推广渠道。
AI工具研究者田威向记者介绍了这种现象的成因。
他表示,AI工具的推荐结果主要源于训练数据中的互联网内容。
这些网络数据本身就包含大量商业信息、产品评测和营销素材。
随着商家对AI工具推荐机制理解的深化,更加主动和隐蔽的营销策略应运而生。
根据调查,商家在AI工具中"塞入广告"主要通过两种路径实现。
其一是利用特定提示词引导AI工具生成预期答案,随后将AI的推荐内容单独截取并对外宣传,制造"客观推荐"的假象。
其二是更为隐蔽的"信息投喂"战术。
商家针对AI工具常引用的社交媒体平台,有针对性地制作内容并批量发布结构化软文,巧妙将产品植入看似客观的推荐中。
这些内容通常冒充"用户真实体验"或"专业测评",实际上均为精心设计的营销素材。
市场上已出现专门从事生成式引擎优化服务的商业机构。
某推广人员向记者透露,通过事先大批量发稿,可针对性提升产品在主流AI平台的信源引用权重,使其在AI推荐榜单中排名靠前。
这类服务的收费标准为每次五千至一万元。
北京理工大学智能科技法律研究中心研究员王磊指出,这种未经标注、通过技术手段隐性植入的商业推广存在明显的合规风险。
生成式引擎优化的核心目的在于将商业推广伪装成AI工具基于海量数据计算后得出的客观结论,直接侵犯了消费者的知情权和选择权。
此外,为实现AI工具的抓取和推荐,投放方往往制造虚假数据或操控评价,这些行为可能构成虚假宣传或不正当竞争。
传统的互联网广告监管模式面临新的挑战。
王磊分析称,以往的监管重点聚焦于广告发布后的违规内容,采取末端治理思维。
但在生成式引擎优化模式下,广告植入发生在上游的数据"投喂"阶段,远在广告最终呈现之前。
这种隐蔽性强、跨平台流动的特点使得传统监管框架捉襟见肘。
为有效应对这一挑战,王磊建议监管部门必须转变思路,从末端治理向全流程治理模式转变。
这意味着监管需要覆盖从数据生成、内容发布、平台引用到最终推荐的整个链条。
相关部门应明确界定生成式引擎优化行为的法律属性,建立针对性的审查和处罚机制。
同时,AI平台运营方也应承担相应责任,建立内容溯源机制,对推荐结果的数据来源进行透明标注,让消费者能够识别哪些内容来自商业投放。
业内人士认为,解决这一问题需要多方协力。
监管部门应加强对生成式引擎优化服务商的规范管理,明确其从事此类活动的法律底线。
AI平台需要完善算法透明度,建立用户反馈和投诉机制。
消费者也应提高警觉,对AI工具的推荐结果保持理性态度,主动追溯信息来源。
工具越接近“可信建议”,越需要对其背后的信息来源与商业关联保持透明。
对隐性推广的治理,既是对消费者知情权的守护,也是对公平竞争与数字生态健康的维护。
把监管关口前移到数据生产与传播环节,并在输出端建立清晰的标识和问责机制,才能让技术更好服务公共利益,让“推荐”回归可信与克制。