首例ai“幻觉”侵权案就像一次重要的试水

这次杭州互联网法院刚审结了全国首例因为AI产生“幻觉”而引发的侵权案。大家讨论得挺热闹,主要就是因为这个模型在交互时输出了看似合理但其实错误的信息,导致原告梁某想用它咨询高校报考信息时被误导了。原告最后没拿到10万元赔偿,反而把服务方告上了法庭。被告公司辩解说,内容完全是AI自己生成的,他们不是生产者;而且他们已经尽了提示义务,主观上没过错;最重要的是,原告也没真的因此遭受财产或人身损失。 法院这次主要就是在讨论两个核心问题:生成式人工智能服务到底该算什么性质?责任归谁负责?判决书最后把这个服务定义成了“信息技术服务”,而不是有形的“产品”。基于这个属性,案子就适用了过错责任原则。这意味着原告得证明被告有主观过错,而且这个过错导致了损害结果。 法官查了之后觉得,被告确实依法管理了模型和数据,也有设置提示标志,证据不足以证明他们有过错。再说那个AI模型自己给出的“赔偿承诺”,因为不具备法律主体资格,不算是有效的意思表示。原告也没能证明自己有实际损失。所以最后法院判决被告不构成侵权。 法学专家们都觉得这个判决挺有智慧的。过错责任原则既能让服务者守住红线,比如不生成违法信息、明显标识内容等;也能给技术创新留点余地,不让责任太重拖垮产业。这也是现在很多AI应用会在显眼位置标注免责声明的原因。 不过这事儿也没这么简单。国家互联网信息办公室发布的第56次统计报告显示,到了2025年3月国内已经有超过346个生成式AI服务完成备案了。到了2025年6月,用AI产品获取答案的用户比例已经高达80.9%。有传播学者担心大家可能会陷入“拟态环境”的困境,感觉自己的世界很大程度上是AI模型构建出来的。 2025年7月中国青年报的调查也很能说明问题:97%的受访大学生都遇到过AI产生幻觉的情况。其中74.26%的人觉得要从源头解决问题,提升技术水平、优化算法、加强数据治理才行。 首例AI“幻觉”侵权案就像一次重要的试水。它给产业划出了“安全区”,让大家知道该怎么做才合规;同时也提醒所有人必须正视这个问题——技术开发者、服务提供方、内容传播者、普通用户还有政策制定者都得一块上。 只有大家齐心协力加强治理、提高素养、完善法规,才能防范认知风险。只有这样才能确保AI真的服务于社会需求,推动数字未来健康发展。