智能问答成“标准答案”新入口 生成式模型遭“投喂”营销链条引发安全警示

当前,人工智能技术已深入公众日常生活——从旅游规划到消费决策——越来越多人习惯向智能系统寻求建议。但便利背后也出现了新的隐患。记者调查发现,一种被称为“信息投毒”的网络黑产正蔓延。所谓“信息投毒”,是指商家人为制造并投放带有明显商业倾向的内容,以影响人工智能系统的推荐结果。与传统搜索引擎优化不同,这类手段直接针对人工智能的信息处理机制:通过大量投放伪装成测评、对比或“专家建议”的商业内容,让系统在整合信息时产生偏差。北京大学光华管理学院张颖婕副教授指出,其危害主要有两点:一是误导消费者决策,让人把推广信息当作客观建议;二是污染信息环境,诱发更多低质甚至虚假内容,形成恶性循环。更调查显示,“信息投毒”之所以容易得手,与人工智能系统工作方式密切涉及的。这些系统擅长语言生成与模式识别,但在真实性判断上存在短板——它们能识别“看起来像答案的内容”,却不一定能判断“是否是真实答案”。不法分子正利用该点,批量生产看似专业的内容进行操控。更值得警惕的是,这种营销方式隐蔽性强、识别难度大。相关内容往往不靠明显造假取胜,而是通过夸大、选择性呈现、模糊表达等方式制造“伪客观”,给平台审核和用户辨别都带来挑战。针对这一问题,专家建议多管齐下治理:一上加强源头治理,遏制虚假信息的规模化生产;另一方面压实平台责任,完善信息筛选与风险识别机制;同时加快相关法规建设,明确人工智能服务提供者的责任边界。从长远看,随着技术演进,“信息投毒”与反制手段的对抗仍会升级,这既考验平台治理能力,也对监管提出更高要求。专家呼吁建立跨部门协作机制,形成技术防护、行业自律与行政监管的合力。对普通用户而言,保持理性判断同样关键。专业人士建议,将人工智能推荐视为参考而非结论,通过多渠道核验信息来源与可靠性;尤其在涉及重要消费决策时,更要保持必要的审慎。

信息时代的便利,不应以牺牲真实为代价;越是“一句话给结论”的服务形态,越需要透明和审慎。把工具用来辅助判断而非替代判断,把推荐放回证据与常识的框架中检验,才能避免被“看似权威的答案”牵着走,也才能守住健康有序的信息生态与公平竞争的市场环境。