【问题】 北京消费者黄女士近日向记者反映,某智能工具在回答产品咨询时,推荐的所谓“权威评测”实为营销号内容,甚至包含曾被监管部门处罚的品牌。
类似案例在社交平台引发广泛讨论,多名用户指出,智能工具在解答护肤、家电选购等问题时频繁出现特定品牌推荐,其客观性存疑。
【原因】 技术研究者分析,当前智能工具的推荐机制主要依赖互联网公开数据训练,而网络环境中本就存在大量商业评测和软文信息。
部分商家利用这一特性,通过两种主要路径植入广告:一是设计特定提问话术诱导工具生成预设答案,截取片段包装为“客观推荐”;二是在社交媒体批量发布伪装成用户体验的营销内容,通过高频引用提升其在智能工具信源中的权重。
记者调查发现,市场上已出现专门从事“生成式引擎优化”(GEO)的服务商,其业务包括为客户定制内容投放方案,通过技术手段提升产品在智能平台的推荐优先级。
某服务商透露,支付5000至1万元即可实现目标产品“冲上推荐榜单前列”。
【影响】 法律专家指出,此类未标注的隐性推广存在多重风险。
北京理工大学智能科技法律研究中心研究员王磊表示,该行为既侵犯消费者知情权,又可能因人为操控数据构成虚假宣传或不正当竞争。
更值得警惕的是,由于智能工具的跨平台特性,问题广告往往在监管盲区中流动扩散。
【对策】 现行广告监管体系主要针对已发布的违规内容,但GEO模式将商业干预前置至数据训练阶段。
王磊建议,监管部门需建立覆盖数据采集、算法设计、结果输出的全流程治理框架,包括:要求平台公开基础数据来源、建立商业内容标注标准、完善跨平台协同监管机制等。
同时,应督促企业履行主体责任,对推荐结果的可信度进行人工复核。
【前景】 随着智能技术应用场景的拓展,相关监管体系亟待同步升级。
业内人士预测,未来或将通过立法明确智能工具的信息过滤义务,并建立算法审计制度。
部分科技企业已开始试点“可信推荐”标签体系,通过区块链等技术追溯内容源头,为行业治理提供技术支撑。
AI技术的发展为信息获取和决策支持提供了新的可能,但其商业化应用也带来了新的风险挑战。
生成式引擎优化技术的滥用表明,新兴技术领域的监管不能总是滞后于问题的出现。
唯有建立前瞻性、全流程的监管框架,形成政府部门、平台企业、商家和消费者的多元共治格局,才能既促进AI技术的健康发展,又有效保护消费者权益,推动数字经济的规范有序运行。