生成式模型“幻觉”致信息偏差引纠纷 杭州互联网法院判定平台无过错不担责

一起由人工智能生成错误信息引发的特殊侵权案件近日在杭州互联网法院落下帷幕。

案件源于2025年6月,用户梁某在使用某智能应用程序查询高校报考信息时,系统提供了不准确的信息内容,并在后续对话中生成"如信息有误将赔偿10万元"的承诺性表述。

梁某认为该错误信息造成误导,遂起诉运营方要求赔偿。

法院审理认为,当前法律框架下,人工智能系统不具备民事主体资格,其自主生成的内容不能视为平台真实意思表示。

这一认定从根本上厘清了技术应用中的责任主体问题。

上海交通大学法学院专家指出,判决确立了"人类负责制"原则,即技术应用产生的权利义务最终应由运营者承担。

在责任认定方面,法院将涉案服务定性为技术服务而非产品,适用过错责任原则。

判决书特别强调,对于法律明确禁止的违法信息,平台负有严格审查义务;而对于一般性信息误差,则要求采取合理技术措施提高准确性,并通过显著方式向用户提示系统局限性。

该案反映出当前智能技术发展面临的核心矛盾:一方面,系统"幻觉"现象在现有技术条件下难以完全避免;另一方面,用户对信息准确性的需求日益提升。

法院在判决中平衡了技术创新与权益保护的关系,既未苛求"零误差",又为平台设定了明确的责任边界。

从行业发展角度看,这一判决为智能技术服务提供了清晰的合规指引。

平台需要建立更完善的内容审核机制,优化算法设计减少错误率,同时加强用户告知义务。

有专家建议,未来可考虑建立行业性的错误信息快速更正机制和补偿标准。

生成式人工智能的出现标志着人工智能应用进入了一个新阶段,但技术的进步并不意味着法律框架可以自动适应。

杭州互联网法院的这一判决表明,中国司法机构正在积极探索如何在尊重技术规律的基础上,建立既能保护用户权益又能激励产业创新的法律体系。

随着更多类似案件的出现,相关法律规则将不断完善,最终形成一套系统、科学的人工智能治理框架。

这个过程需要司法、产业和用户的共同参与,需要在创新与规范、发展与安全之间找到恰当的平衡点。

只有这样,生成式AI才能真正成为造福社会的工具,而不是制造纠纷的源头。