最近,国家互联网信息办公室推出了一系列新的规定来管理生成式人工智能。在这一背景下,杭州互联网法院审理了全国首例因生成式人工智能“幻觉”引发的侵权案。被告方是一家提供AI服务的公司,原告梁某把它告上了法庭,因为他咨询报考信息时得到了错误答案和“赔偿承诺”,结果发现这些内容都是AI模型自动生成的。 2025年3月,国家互联网信息办公室发布了《生成式人工智能服务管理暂行办法》,要求所有从事相关服务的企业进行备案。截至那时,已经有超过340款服务完成了备案。这个数字反映了生成式人工智能在我国的迅速普及。到了2025年7月,调查显示有97%的受访高校学生表示遇到过AI“幻觉”。这些年轻人希望通过技术研发和数据治理来提升准确性。 对于这次案子,法院认为核心在于怎么界定AI服务的法律属性和责任归属。根据相关法律规定,像这样用算法和模型生成信息的行为属于技术服务而非有形产品。因此责任认定要回到服务合同和侵权责任的框架里去。 被告公司辩称对话内容都是模型自动生成的,他们作为服务提供者已经履行了法定义务,而且梁某也没证明自己有实际损失。法院审查后发现公司已经做了显著标识AI内容、提示用户核实等措施,已经履行了必要的注意义务。 法院最终驳回了梁某的全部诉讼请求。判决指出AI模型在交互中出现的错误不能等同于服务提供者本人的意思表示。因为原告没证明被告有过错或违法,而且他主张的“损失”也缺乏依据。 专家指出这个判决体现了司法对新兴技术的审慎态度。它既给服务提供者设立了行为底线(比如不得生成违法信息),又为技术创新保留了空间。 这种归责原则有助于建立一个既能规范又能适应技术发展的治理体系。现在大家常见的“内容由AI生成”提示就是这个责任框架下的具体体现。 不过法律界专家也提醒说,司法厘清边界只是开始。随着AI服务的普及,“幻觉”或偏见可能会影响公众认知和社会信任。传播学学者担心当AI生成内容占据很大比例时,社会可能会面临“拟态环境”效应加剧的风险。 全国首例AI“幻觉”侵权案的判决标志着我国司法在应对新型法律挑战时迈出了重要一步。它确立了以过错责任为核心的规则,为产业创新和风险防范提供了稳定预期。 展望未来化解这个问题需要技术创新、法律规制、行业自律和公众数字素养提升协同推进共同引导技术向善发展更好地服务于社会进步和人类福祉。