智能技术深度融入社会各领域的同时,其信息可靠性问题正引发广泛关注。
北京市通州区人民法院近期审理的一起股权纠纷案件中,律师提交的"最高人民法院参考案例"经查证与真实裁判文书存在重大出入。
法官郑吉喆指出,该案例文本呈现典型的机器生成特征,包括格式标准化、事实要素模糊等特点。
类似情况在消费领域同样存在,哈尔滨消费者张女士反映,其依据智能推荐购买的电动牙刷,实际性价比显著低于同类产品。
深入调查发现,此类现象背后存在系统性成因。
中国社会科学院大学刘晓春教授团队研究发现,部分学术作业中出现的虚构文献、失实案例,与智能系统的训练数据缺陷直接相关。
更值得警惕的是,市场上已形成所谓"生成式引擎优化"服务,商家每年支付4000至20000元不等的费用,通过批量投放特定内容影响智能系统的推荐算法。
某推广服务商向记者透露,其通过定向投放海量软文,可使指定商品在智能问答中成为"标准答案"。
这种人为干预导致的双重风险正在显现。
中国互联网协会专家周杰分析指出,当前智能系统主要依赖既有数据进行逻辑推演,缺乏对信息真实性的判别能力。
当商业机构刻意"污染"数据源时,系统会机械采纳被植入的推广内容。
中国计算机学会潘季明委员进一步强调,该问题在医疗健康、金融投资等专业领域可能造成更严重的后果。
针对这一挑战,多方正探索综合治理路径。
法律界建议建立智能生成内容的备案追溯制度,要求服务商对关键领域输出结果承担验证责任。
市场监管部门则着手制定商业内容标注规范,要求推广信息必须明确标识。
技术层面,头部企业开始研发"可信度评估模块",通过交叉验证、权威信源加权等方式提升信息质量。
行业观察显示,随着《互联网信息服务算法推荐管理规定》等政策落地,智能技术服务正进入规范发展新阶段。
预计未来三年,内容真实性验证技术将形成百亿规模的市场需求,推动形成技术研发、标准制定、监管协同的良性生态。
技术可以提升效率,但不能替代事实本身。
面对越来越“会说话”的生成式工具,社会需要的不是对结论的盲从,而是对证据的追问、对来源的核验、对商业利益的识别。
让每一次引用更谨慎、每一次推荐更透明、每一次传播更负责任,才能把便利真正转化为可信与安全的公共价值。