一、问题浮现 近日,北京市朝阳区人民法院受理了一起特殊的名誉权诉讼案件。
二、争议焦点 平台方代理律师在庭审中提出"技术工具中立论",将智能搜索系统类比为菜刀等物理工具,强调平台不应为技术自主生成的内容担责。
原告方则指出,智能系统具有主动信息加工特性,其算法设计、数据训练等环节均存在人为干预可能,平台未尽到信息审核义务已构成过错。
中国政法大学网络法学研究院王教授分析,此类争议的核心在于如何界定技术提供者的"合理注意义务",现行法律对算法生成内容的归责标准尚不明确。
三、行业影响 据工信部数据显示,我国人工智能核心产业规模已突破5000亿元,智能检索、内容生成等技术深度融入社会生活。
中国人民大学民商事法律科学研究中心近期发布的《数字时代人格权保护报告》显示,2022年涉及算法侵权的民事诉讼同比增长217%,其中名誉权纠纷占比达43%。
此类案件判决将对互联网平台的内容治理机制产生示范效应,直接影响数亿网民的数字权益保障。
四、规制探索 最高人民法院在2023年发布的《关于审理涉算法推荐技术服务纠纷案件适用法律若干问题的规定》中,首次明确平台对算法推荐内容的审核义务。
中国社科院法学所李教授建议,应建立"技术应用分级责任制":对于基础工具类技术适用中立原则,对具有内容生成功能的智能系统则要求运营者承担形式审查责任。
目前,广东、浙江等地法院已在探索"技术过错认定标准",通过个案裁判推动规则形成。
五、发展前瞻 随着《生成式人工智能服务管理暂行办法》的正式实施,我国成为全球首个对AIGC实施专项立法的国家。
国家网信办相关负责人表示,正在研究制定智能内容服务的"算法透明度"标准,要求企业建立可追溯、可验证的信息生成机制。
专家预测,未来三年内或将出现专门规范智能系统侵权的司法解释,形成技术发展与权利保障的动态平衡机制。
技术发展永远走在法律规制之前,这是当代社会的常态。
生成式AI虚假信息侵权案的出现,既是技术应用中的必然挑战,也是完善法律制度的紧迫提醒。
我们需要在保护创新发展的同时,建立更为周密的权利保护机制,确保技术进步不以牺牲个人权益为代价。
只有实现技术与法律的良性互动,才能在智能时代真正保护好每个人的合法权益。