杭州互联网法院最近判了一个全国首例的案子,就是生成式人工智能搞出了“幻觉”,让人不知道该信不信。这个案子把AI服务责任的边界给说清楚了,很重要。现在AI越来越多,到处都在用,可是也有很多法律问题让人头疼。特别是AI可能会生成一些听起来合理但其实是错的信息,这种“幻觉”问题已经引起了大家的关注和争议。这次法院判了梁某和一家科技公司之间的纠纷。梁某用这家公司的AI工具查高校报考信息,结果得到了错误的答案。他指出错误后,这个工具不仅没改,反而说如果信息有误就要赔十万元。后来梁某拿出官网证据,这家公司才承认错误,还建议他去打官司索赔。梁某就觉得自己被误导了,要求科技公司赔偿损失。 这个案子最核心的争议就是AI自己说的话有没有法律效力。法院说了,AI本身没民事主体资格,不能自己传达意思。那个“赔偿承诺”其实就是模型根据算法和数据随机生成的内容,并不是服务提供者主动设定的。用户很难对这种随机生成的话产生合理信任。所以那个承诺没有法律约束力。 这次判决还确立了这类纠纷该怎么归责。法院认为生成式人工智能服务属于管理办法里的“服务”,不是《产品质量法》里的“产品”。所以这次应该适用《民法典》里的一般过错责任原则,得证明服务提供者有过错才行。法院给出了几个理由:第一是输出内容随机多样不可预测;第二是生成的信息没像危险物品那样的危险性;第三是技术特性让服务提供者没法完全控制输出;第四是为了鼓励技术创新。 法院审查了一下被告有没有侵权。原告主要说是因为信息不准确导致决策失误和核实成本高这些经济损失。法院觉得要认定侵权得看行为违法、有损害、有因果关系还有过错这四个方面。现在证据还不够充分证明被告对那个错误信息的生成有主观过错或者没履行注意义务,也很难认定损害跟被告行为有直接联系。所以最后没支持原告的诉讼请求。 这个判决不光是解决了个案问题,更重要的是划定了法律界限和权衡了价值观念。它明确了AI说的话不能当数,并且规定服务提供者要负责但也要留出技术发展空间。这说明司法面对新技术问题很谨慎也很聪明,在鼓励创新和规范发展之间找平衡。随着AI技术发展下去,法律和司法实践都得跟上步伐,保障安全也激发活力。