问题——“问问智能”成新习惯,结果却未必客观可靠。
出门住宿、购买家电、挑选护理产品……不少消费者已从过去逐条检索信息,转向直接向生成式搜索工具索取“结论”。
这种方式提高了效率,却也带来新的信任挑战。
调查中,有消费者反映依据智能工具“推荐”购买的产品价格不低但体验一般,事后发现相关说法更像广告文案而非客观测评。
对普通用户而言,回答呈现为“综合建议”,往往难以辨别信息来源与利益关联,一旦内容被商业推广“裹挟”,决策风险随之上升。
原因——广告投放方式迁移升级,“无标签植入”成为灰色空间。
业内人士介绍,围绕生成式搜索的商业化操作正在形成链条,一些机构将其称为“生成式引擎优化”。
与传统搜索时代的竞价排序不同,生成式搜索的答案往往以自然语言输出,缺少醒目的广告位和提示语,商业内容更易“隐身”其中。
记者接触的服务商以“上结果更快”“算力更强效果更好”等话术招揽客户,提供代运营或教学服务,并以不同价格档位承诺提升“被推荐概率”。
从技术路径看,目前市面上不少所谓“优化”并非直接改写模型,而是通过向多个内容平台海量投放相似软文,借助模型对公开网页的检索、索引与引用机制,增加品牌或机构被抓取的机会。
技术人员分析,一些从业者会研究平台引用来源与关键词规律,有针对性地制造内容“密度”,以更高概率进入回答引用链条。
看似“自然生成”的答案,背后可能是人为组织的信息投放。
影响——从“体验踩雷”到“信任受损”,更可能诱发系统性信息污染。
一是误导消费与公共决策。
对商品性能、服务质量、价格优势等表述若来源不明,用户可能在不知情情况下接受商业诱导,造成经济损失甚至安全隐患。
二是挤压优质信息空间。
大量重复、同质、低质量内容被集中投放,会稀释真实评测、权威数据与专业科普的可见度,形成“劣币驱逐良币”的传播效应。
三是衍生“假报告”“假专家”等更隐蔽手段。
调查显示,有机构通过编造所谓“研究简报”“年度报告”来为自身服务背书,甚至虚构“权威研究机构”名义;也有投放内容允许客户自行设置“专家头衔”,将营销包装成专业建议。
此类做法不仅侵害消费者知情权,也破坏行业生态,放大平台风险。
四是削弱生成式搜索的社会信任基础。
生成式工具一旦被广泛认为“夹带私货”,将影响其在教育、医疗咨询、金融信息等更敏感领域的应用边界与公众接受度。
对策——平台、监管、行业与用户需形成合力,先把“标识”和“可追溯”立起来。
首先,平台要压实主体责任,完善商业内容标识机制。
对可能涉及付费合作、推广植入、利益关联的内容,应当以清晰方式提示,避免以“自然回答”包装广告;对高风险领域建议设置更严格的来源要求与提示语,必要时限制引用低可信站点。
其次,强化引用链路透明度与可核验能力。
平台可进一步突出引用来源、时间、作者与资质信息,提供更便捷的“追溯入口”,让用户一键查看依据材料并进行交叉验证;对异常集中出现的同源内容、短时爆发式投放等行为建立识别模型,降低其影响权重。
再次,监管部门应推动规则衔接与执法协同。
针对“无标识广告”“虚假宣传”“冒用机构名义发布报告”等行为,依法依规明确责任边界,督促平台建立快速处置与证据留存机制,并对典型案例公开通报,形成震慑。
同时,行业协会与内容平台应建立“可信内容”共建机制。
鼓励权威机构、专业媒体、科研单位发布结构化、可验证的信息资源,提升优质内容的可见度与可引用性;对刻意制造“信息噪声”的机构纳入黑名单或采取联合惩戒。
最后,用户也要提升辨识能力。
面对“推荐”“最强”“必买”等强结论表述,应关注引用来源、对比多方信息,特别是在医疗美容、金融投资等领域,避免将生成式回答当作最终决策依据。
前景——生成式搜索将走向“可信竞争”,治理水平决定其公共价值。
从发展趋势看,生成式搜索仍将快速渗透到生活与产业环节,其价值在于降低信息获取成本、提升决策效率。
但要让便利真正转化为公共收益,关键在于建立可解释、可追溯、可监管的运行机制,并把商业化边界“划清楚”。
未来,平台治理能力、内容生态建设与监管规则完善,将共同决定生成式搜索能否从“会说”走向“可信”,从“给答案”走向“给依据”。
生成式人工智能搜索工具代表了信息获取方式的重要进步,但技术进步本身并不能保证信息质量。
当商业利益与技术应用相遇时,如果缺乏必要的规范和监管,便会产生新的乱象。
这提醒我们,在拥抱AI技术的同时,必须建立相应的信息治理体系,确保技术为人所用、为善所用。
只有这样,生成式人工智能才能真正成为可信赖的信息助手。