AI搜索引擎面临商业化困境 专家建议加强伦理监管

问题——从“搜一下”到“问一下”,可信度迎来新考验;面膜是否适合敏感肌、充电宝品牌是否可靠、香水是否温和……多元消费场景中,AI搜索以对话式、总结式回答降低了获取信息的门槛,正成为不少人的“决策入口”。截至2025年6月,我国生成式人工智能用户规模达5.15亿人,使用规模越大,社会影响也越大。另外,“广告能否被清晰识别”这个老问题在新场景中被放大:当商业信息借助模型回答以“中立建议”的形式出现,用户很难像在传统搜索中那样通过“广告标识”“竞价排名”等线索快速辨别,AI回答的可信基础因此承压。 原因——逐利冲动叠加技术短板,催生“AI搜索优化”灰色生意。调查显示,尽管我国主流大模型平台目前普遍尚未在问答中直接接入广告业务,但一些广告公司已将“影响AI推荐”包装成服务,在社交平台发布教程,承诺“进入精选摘要”“优先被引用”等,形成更隐蔽的链条。其所以可行,一上于模型存在“幻觉”问题,可能把不可靠内容说得煞有其事;另一上也在于模型对外部内容的真实性、权威性识别仍有限,面对精心设计的话术、伪造材料、密集重复传播时,抓取权重与引用概率可能被抬高。更值得警惕的是,部分操作者通过编造所谓“权威报告”、冒充“专家身份”、制造“伪引用链”,或进行“饱和式数据投喂”,在信息源头制造噪音,从而引导模型把商业诉求包装成“客观结论”。曾有自媒体测试显示,批量投放虚假品牌软文后,部分平台的回答出现对该品牌的推荐,提示这一问题并非个案。 影响——信任受损、生态扭曲,“劣币驱逐良币”风险上升。对用户而言,AI搜索的价值在于“省时且更可信”。一旦广告以不透明方式混入回答,消费者可能基于错误信息作出购买决策,权益受损,也会加深对新技术的不信任。对行业而言,这类做法相当于用商业噪音污染模型数据与内容环境,优质真实信息的可见度被挤压,形成“谁更会投喂、谁更会包装、谁就更容易被推荐”的逆向激励,扰乱公平竞争。长远看,若“竞价排名”的旧逻辑披上智能交互的新外衣并扩散,将削弱平台公信力,抬高全社会信息甄别成本,甚至影响生成式应用的健康普及。 对策——以透明为先、以责任为纲,形成可执行的治理闭环。治理“隐形广告”不能只靠用户自我警惕,更需要平台、行业与监管形成合力。其一,建立并强化清晰可见的商业内容标识制度,明确任何形式的商业合作、导购链接、付费影响推荐都应可追溯、可识别,避免“伪装成中立建议”。其二,推动平台完善数据治理与来源管理,对高风险内容源、集中投放行为、异常重复传播进行识别与降权,提升对伪造报告、冒名专家、虚假引用等套路的检测能力,并加强对关键信息的交叉验证与引用说明。其三,健全问答结果的可解释机制,在不明显增加负担的前提下,提示主要信息来源、证据链与不确定性边界,让“推荐”回到可核验轨道。其四,压实平台主体责任与服务商合规义务,对“保证进入摘要”“操控推荐”等营销话术依法依规整治,推动行业自律与公开承诺,压缩灰色服务空间。其五,畅通举报与纠错渠道,建立快速处置与公开反馈机制,对误导性内容及时更正,形成“发现—核查—修正—追责”的闭环。 前景——把握窗口期,守住技术向善的公共底线。生成式人工智能正处于从“新工具”走向“基础设施”的关键阶段,越是渗透到消费、医疗、教育等敏感领域,越需要把可信、透明、公正作为前提。可以预期,随着用户规模扩大、应用场景加深,商业化探索会不断出现,但商业化不等于无边界,创新也不能以牺牲用户知情权为代价。面向未来,应推动形成更统一的标识规范、更严格的内容与数据治理、更清晰的责任分配机制,让技术进步与市场秩序相互促进,避免重蹈“流量至上”的老路。

搜索引擎竞价排名的旧逻辑,即使披上智能交互的新外衣,也可能把用户越推越远。AI搜索本应体现技术进步,但一旦沦为商业操纵的工具,就会失去应有的价值。当前正是建立行业规范的关键窗口期,需要各方共同努力,在创新与规范之间找到平衡,推动AI技术朝着更透明、更可信的方向发展,让用户真正受益于人工智能带来的便利。