生成式搜索“张冠李戴”引发名誉维权案:平台责任边界与治理规则亟待明晰

一、问题浮现 近日,北京市朝阳区人民法院受理了一起特殊的名誉权诉讼案件。

二、争议焦点 平台方代理律师在庭审中提出"技术工具中立论",将智能搜索系统类比为菜刀等物理工具,强调平台不应为技术自主生成的内容担责。

原告方则指出,智能系统具有主动信息加工特性,其算法设计、数据训练等环节均存在人为干预可能,平台未尽到信息审核义务已构成过错。

中国政法大学网络法学研究院王教授分析,此类争议的核心在于如何界定技术提供者的"合理注意义务",现行法律对算法生成内容的归责标准尚不明确。

三、行业影响 据工信部数据显示,我国人工智能核心产业规模已突破5000亿元,智能检索、内容生成等技术深度融入社会生活。

中国人民大学民商事法律科学研究中心近期发布的《数字时代人格权保护报告》显示,2022年涉及算法侵权的民事诉讼同比增长217%,其中名誉权纠纷占比达43%。

此类案件判决将对互联网平台的内容治理机制产生示范效应,直接影响数亿网民的数字权益保障。

四、规制探索 最高人民法院在2023年发布的《关于审理涉算法推荐技术服务纠纷案件适用法律若干问题的规定》中,首次明确平台对算法推荐内容的审核义务。

中国社科院法学所李教授建议,应建立"技术应用分级责任制":对于基础工具类技术适用中立原则,对具有内容生成功能的智能系统则要求运营者承担形式审查责任。

目前,广东、浙江等地法院已在探索"技术过错认定标准",通过个案裁判推动规则形成。

五、发展前瞻 随着《生成式人工智能服务管理暂行办法》的正式实施,我国成为全球首个对AIGC实施专项立法的国家。

国家网信办相关负责人表示,正在研究制定智能内容服务的"算法透明度"标准,要求企业建立可追溯、可验证的信息生成机制。

专家预测,未来三年内或将出现专门规范智能系统侵权的司法解释,形成技术发展与权利保障的动态平衡机制。

技术发展永远走在法律规制之前,这是当代社会的常态。

生成式AI虚假信息侵权案的出现,既是技术应用中的必然挑战,也是完善法律制度的紧迫提醒。

我们需要在保护创新发展的同时,建立更为周密的权利保护机制,确保技术进步不以牺牲个人权益为代价。

只有实现技术与法律的良性互动,才能在智能时代真正保护好每个人的合法权益。