2025年6月,一个令人关注的事件在浙江省杭州互联网法院发生了。法院受理了国内首例因生成式人工智能模型产生“幻觉”引发的诉讼,这起案子让人们对生成式人工智能技术有了更深的认识。用户梁某在使用一款生成式人工智能应用程序查询高校报考信息时,得到了错误的信息。梁某发现这个错误后,试图纠正这个问题。然而,在对话中,这个AI模型却回应说,如有错误愿意赔偿十万元,还建议他去杭州互联网法院起诉。直到梁某提供官方招生信息,AI才承认自己给出的信息有误。这个纠纷让梁某觉得自己受到了误导和增加了核实与维权成本,于是他向法院提起诉讼要求赔偿9999元。审判期间,焦点集中在两大核心法律问题上:人工智能模型自主生成的内容能否被视为服务提供者的真实意思表示;以及平台对AI生成内容的准确性应承担何种程度的注意义务和责任。法院审理后认定,被告某人工智能应用运营者不构成侵权。虽然这个AI模型能够生成类似承诺赔偿之类的表述,但不能把这些内容看作是平台的真实意思表示。AI模型的输出是基于算法、数据和模型训练的自动化过程,并非平台运营者主观意志的直接体现。判决还指出生成式人工智能技术正处于快速发展阶段,“幻觉”现象是这个阶段的一个已知局限。尽管服务提供者不能保证输出内容绝对准确,但他们不能免除所有责任。 法院对这个问题做出了清晰界定。判决强调了平台需要履行的一些合理注意义务:显著提示风险、采取合理技术措施、严格审查禁止性内容等。被告运营的AI大模型已完成备案与安全评估,并且在产品多个环节设置了提示风险告知义务履行情况良好。同时,原告梁某也未能举证证明自己因不准确信息遭受了实际损害,也未能证明损失与错误信息之间存在因果关系。 这个判决引发了业界和学界广泛关注。法律专家指出这个判决没有采取简单归责思路而是秉持鼓励创新与规范发展协同理念。它既为技术研发留出试错空间又划定了行为红线保障用户权益并引导产业健康发展。杭州互联网法院对这次案件审理是一次积极而审慎的回应,确立了一些重要裁判思路:“技术特性应予考量、平台义务不容回避、风险提示至关重要、损害因果必须证明”。这次判决不仅提供了裁判指引还为相关立法和监管政策提供了实践参考。 随着技术不断演进如何在动态发展中寻求创新与安全之间平衡点成为社会各界长期共同探索的课题。