随着生成式人工智能技术的广泛应用,其生成内容的准确性问题日益凸显。
近日,杭州互联网法院审结的一起网络侵权责任纠纷案件,对人工智能应用中的法律责任边界进行了明确界定,为相关产业发展提供了重要司法指引。
案件起因于一次信息查询的失误。
2025年3月,考生梁某注册使用某科技公司开发的生成式人工智能应用程序,用于咨询高校报考信息。
6月29日,当梁某输入提示词询问某高校报考相关事项时,该人工智能生成了关于该校主校区的不准确信息。
在梁某提出质疑和纠正后,人工智能非但未予改正,反而继续坚持其错误表述,并进一步生成了一份"解决方案"。
更为离奇的是,这份方案中包含了一份"郑重声明",称若生成内容有误,将向用户赔偿10万元信息鉴定费,并建议用户向杭州互联网法院起诉索赔。
这一"自我承诺"的荒诞性充分暴露了当前生成式人工智能在信息准确性和逻辑一致性方面存在的深层问题。
梁某随后获得了该高校的真实招生信息,将其提供给人工智能后,系统才最终承认生成了不准确的内容。
认为自身权益受损的梁某遂向法院提起诉讼,要求被告赔偿经济损失9999元。
被告某科技公司则辩称,对话内容由人工智能模型自动生成,不代表公司的意思表示,公司已充分履行了注意义务,不存在过错,原告也未产生实际损失,因此不构成侵权。
法院的判决触及了当前人工智能法律地位的核心问题。
杭州互联网法院经审理认为,根据现行民法规定,享有民事权利、能够作出意思表示的民事主体仅包括三类:自然人、法人和非法人组织。
生成式人工智能既不是生物学意义上的人,也未被我国现行法律赋予民事主体资格,因此不具备民事主体地位,无法独立、自主作出具有法律效力的意思表示。
在本案具体情境中,人工智能生成的"赔偿承诺"不能被视为被告公司的意思表示。
法院指出,被告并未通过将人工智能作为程序工具来设定或传达其意思表示,也未作出愿受人工智能生成内容约束的外在表示。
从一般社会观念和交易习惯出发,考虑到生成式人工智能应用的泛在性和高度不确定性,原告在本案情境中缺乏合理的信赖利益。
法院同时指出,在人工智能客服等特定应用场景中,生成内容确有可能被视为服务提供者的意思表示,但本案不属于此类情形。
关于侵权责任的认定,法院进一步分析了被告是否存在过错。
原告主张的损害系因信息不准确导致的纯粹经济利益损失,而非人格权、物权等绝对权的侵害。
因此,不能仅因信息本身不准确就认定行为非法,而应从被告是否违反注意义务进行判定。
鉴于生成式人工智能技术仍处于高速发展阶段,其应用场景具有广泛性和多样性,服务提供者的注意义务应当采取动态调整的框架,需要根据技术发展水平、行业标准、应用场景等因素进行综合评估。
该判决的意义在于为生成式人工智能的法律定位奠定了基础。
它明确了人工智能在现行法律框架下的非主体地位,同时也为服务提供者的责任边界划定了初步范围。
这意味着,人工智能生成的内容不能自动产生法律约束力,其准确性问题的责任归属需要根据具体情境进行判断。
与此同时,该案也反映出生成式人工智能应用中存在的现实问题。
人工智能在生成虚假信息后仍然坚持错误、甚至进一步生成虚假的"赔偿承诺",这种"幻觉"现象表明当前技术仍存在明显缺陷。
用户在使用此类工具时,即使看到了"本回答由AI生成,内容仅供参考"的免责声明,仍然容易被看似权威的表述所误导,特别是在涉及教育、医疗等关键决策领域。
本案判决既维护了技术创新空间,又划清了法律责任边界,为人工智能健康发展提供了司法指引。
在数字化浪潮中,构建技术理性与法律规制之间的动态平衡,将成为推动智能时代行稳致远的关键命题。
正如主审法官所言:"技术可以模拟承诺,但责任必须真实明确。
"