杭州互联网法院最近把一桩生成式AI“幻觉”侵权案给判了。梁某拿着这个案子的判决书,心里总算有了底。他跟服务提供者打官司,其实是因为在询问某高校报考信息的时候,AI给了个不准确的答案。用户明明提示了正确信息,AI先是承认错了,接着还说可以向开发者索赔。这下可好了,梁某直接就把提供服务的公司告了。 被告公司当然不认账,他们觉得这事儿是模型自己弄出来的,公司该做的都做了,况且用户也没什么实际损失。法院审案子的时候也没含糊,直接指出核心问题在于怎么看这AI服务是啥属性,以及该让谁来担责。 法院最后定调了:案里的那个生成式AI服务属于《管理暂行办法》管的那个“服务”,不属于《中华人民共和国产品质量法》里说的“产品”。这是很关键的一步啊,直接决定了责任的走向。既然是服务了,那就得用《中华人民共和国民法典》里那一千一百六十五条的过错责任原则来定责——得先证明有过错才能担责。这就好比把标准放宽了些,不像产品责任那样搞无过错或者推定过错责任。 这样做也是有道理的。现在的AI技术太复杂、太像黑箱了,输出的内容可不是开发者想怎么说就怎么说的。要是非让他们担无过错责任,那技术创新估计得凉一半。 所以这次判决就定了个“底线义务”,比如不许搞违法内容、要给生成的东西标个“仅供参考”之类的标志、还要想办法防着别出有害内容。这种“回应型”的治理方式挺好的,既画好了红线保护大家的权益和秩序,又给了技术改进留足了空间。 这判决的影响可不止眼前这一桩案子。它就像面镜子,照出了AI大规模用起来后大家都要面对的社会挑战。现在国内备案的AI服务都有几百款了,超过八成的网民都用过它查信息。技术用得这么广,“幻觉”这毛病就不光是个小技术问题了,很可能变成大风险。 研究还说呢,要是以后社交媒体里全是AI生成的内容,大家辨别能力又不行,社会可能会陷入传播学里说的“拟态环境”困境。到时候大家以为的世界,可能是算法编出来的假像。最近一项对高校学生的调查也印证了这一点:大多数学生都遭遇过AI“幻觉”,七成以上的人希望通过算法优化、数据治理这些根本手段来解决。 这就说明新一代数字公民不光想用工具,更在乎质量和可信度。全国首例这种案子的判决啊,是司法部门主动应对新技术的一个大动作。它确立了一套以过错责任为基础、以法定义务为边界的治理路子。 当然啦,这判决也是个提醒:咱们在享受AI带来的好处时,得时刻警惕它会扭曲信息环境、影响认知。以后得推动技术变得可控可靠、教大家学会批判性思维、还得把法律、伦理这些方面的治理体系给完善好。 只有这样,才能把这把双刃剑用好,既发展经济又营造清朗的网络空间。