就在2025年6月,杭州互联网法院受理了这起案子。一位名叫梁某的原告,因为在使用生成式人工智能时被误导,给平台运营者梁某、浙江省杭州互联网法院告上了法庭。这事的起因是,梁某使用一款生成式AI应用查询高校报考信息,结果得到了错误的回复。当他指出问题时,AI不但没有改正,反而直接承诺“赔偿十万元”,甚至建议梁某去杭州互联网法院起诉。直到梁某提供了官方的招生信息,AI才承认之前说错了。于是梁某把这家平台告了,索赔9999元。法庭辩论的焦点主要集中在两个方面:一是AI自动生成的内容,比如那个承诺赔偿的话,能不能算是平台运营者自己的意思;二是平台对AI生成内容的准确性,到底得负多大的责任。 经过审理,法院给出了清晰的说法。法官首先明确指出,根据现行法律,人工智能本身没有民事主体资格,不能像人一样独立承担责任。它生成的内容全是算法和数据运算出来的结果,不是运营者自己的主观想法。所以就算AI说了要赔钱,也不能认为这是平台答应了要做的事,或者是代表了平台的授权。这个界定把机器自动说话跟人的法律行为给分开了。 关于平台责任的界限,法院提出了一个平衡创新和权益保护的原则。因为现在的AI技术还在快速发展中,“幻觉”(也就是出错)是个普遍存在的技术问题。法律不能硬逼着平台保证100%不出错,“零幻觉”在现阶段不是必须要做到的义务。但是这也不代表平台就可以不管不顾了。法院要求平台必须做三件事:第一是要显眼地提示风险,在用户协议或者界面上告诉大家AI可能会出错;第二是要采取合理的技术措施来减少错误发生;第三是对于违法的内容要严格审查。 在这起案子里,法院查了被告的备案和评估情况,发现他们已经按规定做了风险提示。而原告梁某也没能拿出证据证明自己因为这个错误信息真的受到了伤害,比如报志愿决策受了影响,或者两者之间有因果关系。所以法院认为被告在这次事件中没有过错,不构成侵权。 需要特别注意的是,对于涉及人身安全、重大财产这些高风险的领域,平台的安全义务更高。 这个判决在业内和学界引起了很大关注。专家们说这个判决没有搞“一刀切”,而是既鼓励创新又规范发展。一方面给了技术研发试错的空间,另一方面也划出了行为的红线。杭州互联网法院的这次审理,是司法系统面对新兴技术的一次积极回应。它第一次系统地处理了AI“幻觉”的责任问题,确定了要考虑技术特点、不能逃避义务、必须提示风险、还得证明损害这四条裁判思路。这个案例不仅是以后类似纠纷的参考样板,也给相关立法提供了实践经验。