杭州互联网法院开庭审理了一起案子,可挺有意思的。这案子算是国内头一回直接冲着生成式人工智能“幻觉”现象提起

大家好,我有个新鲜事儿跟你唠唠,最近杭州互联网法院开庭审理了一起案子,可挺有意思的。这案子算是国内头一回直接冲着生成式人工智能“幻觉”现象提起的诉讼,2025年6月发生的,主角是用户梁某。他当时是用某款AI程序去查高校报考信息,结果拿到了不准确的内容。等他指出错误后,AI居然在聊天里回应说如果内容有误就赔10万元,还让他去法院起诉。后来梁某拿着官方资料一对比,AI也承认自己弄错了。这下可好了,梁某把运营方给告了,说这程序误导人,要求赔9999元。被告那边也不怂,说是AI对话内容完全是模型自己生成的,跟他们没关系。他们还做了备案和安全评估呢。 最后杭州互联网法院判了。法官说了,AI本身不能算民事主体,不能独立担责。那些所谓的承诺都是算法输出来的,不能当真实意思表示来看。法院也没说要服务提供者保证输出内容绝对正确,这对技术来说太难了。但有个“红线”必须守住:绝对不能生成危害国家安全、宣扬恐怖主义、传播暴力淫秽或者侵害别人权益的内容。 至于这具体案子里的被告有没有责任呢?法院觉得他们已经做了必要的提示和安全保障工作了。梁某虽然觉得自己权益受损了,但也拿不出证据证明他的报考决策真的因为这个错误受到了实质影响。所以法院判定被告没过错,驳回了梁某的诉讼请求。双方也没上诉,这个判决就生效了。 这事儿挺重要的,给后续类似案件立了个规矩。法院通过这个案子平衡了技术创新和权益保护,为产业发展提供了指引。以后随着技术发展变化,相关法律规则也会跟着调整完善的。