法学界聚焦人工智能法治十大议题 专家呼吁构建新型治理框架应对技术挑战

当前,人工智能加速融入经济社会运行,从“对话式工具”向“任务型代理”演进,应用场景不断外扩,治理需求随之上升;3月19日晚,围绕人工智能治理中的现实难点与制度供给路径,“探寻人工智能法治研究的真问题(第二季)”研讨会线举行。会上,法学界专家学者联合发布《人工智能法治研究十大议题(2026)》,就下一阶段人工智能法治研究的重点方向提出系统化问题清单。 一、问题:从“会说话”到“会办事”,法治如何校准技术边界 与以往主要输出文本答案的应用不同,面向本地电脑与多软件协同的智能体,能够在用户授权下执行文件管理、邮件收发、数据处理等复杂任务,并可通过技能包扩展能力。专家认为,这标志着人工智能正在进入“替用户办事”的新阶段,也将带来更密集、更综合的法律挑战。此次议题发布将“智能体的行为边界、授权机制与竞争治理”置于首位,反映出智能体对既有法律结构的冲击正在显现:授权边界如何划定、智能体是否可作为“代理”规避责任、错误决策或不当操作由谁承担、平台与开发者及用户之间责任如何分配,均直接关系产业可持续发展与社会风险可控。 二、原因:授权更“笼统”、链条更“复杂”,传统框架面临适配压力 与传统互联网应用的点击确认不同,智能体往往需要更广泛、更持续的权限以完成跨软件、多步骤的任务;同时,其行动链条涉及模型推理、工具调用、数据读写、第三方接口与外部内容等多个环节,具有高度不透明性与不可预测性。专家指出,一上,笼统授权可能模糊公域与私域边界,改变个人信息与数据使用的传统场景假设;另一方面,复杂工作流使得行为归因与过错判断更困难,传统法律工具解释技术过程、识别责任节点上面临新的挑战。此外,智能体通过集成调用形成新的竞争格局,平台、模型、插件与数据资源之间的市场结构变化,也对公平竞争与合作生态提出更高要求。 三、影响:从司法裁判到产业出海,治理议题呈现“多线并进”态势 十个议题中,“生成式人工智能幻觉致损风险防范与责任承担”被认为是法律适用中的新难点。此前,杭州互联网法院审结全国首例因生成式人工智能模型“幻觉”引发的侵权纠纷案,裁判要点对后续同类案件具有参考意义:人工智能不具备民事主体资格,不能作出意思表示;案涉生成式人工智能被认定为服务而非产品,不宜适用无过错责任原则。与会专家认为,随着技术迭代和智能体工作流逐步成熟,生成式内容从“给答案”走向“触发行动”,一旦在医疗、金融、政务、企业经营等高风险场景扩散,“幻觉”可能转化为实际损失,进而倒逼责任规则、注意义务与风险分级管理机制加快完善。 除智能体与“幻觉”问题外,议题还覆盖个人信息保护制度在人工智能时代的结构性冲突与制度调适、人机协同场景下知识产权及利益分配、前沿人工智能安全保障与极端风险防控、产业政策的法治化调控、企业出海法律问题、技术标准伦理准则与法律规则的体系协调,以及法律治理新型工具等。专家认为,这些议题共同指向一个趋势:人工智能治理不再是单一部门法可以独立回应的问题,而是需要公法与私法、实体规则与程序机制、国内规则与国际合规共同推进。 四、对策:以“小切口”做“深挖掘”,推动可操作的制度供给 发布方表示,相较上一年度更偏“坐标系”式的广覆盖,今年议题更强调聚焦、务实与可落地,力求以具体场景推动针对性研究与制度创新。多位专家建议,在智能体治理上,可从授权可解释、权限最小化、关键动作二次确认、操作日志留存与可审计等技术与制度结合的路径入手,逐步明确用户、开发者、平台与第三方服务提供者的注意义务边界与责任分担机制;在竞争治理上,应重视接口开放、数据与插件生态的公平准入、平台规则透明与可申诉机制建设,防止以技术门槛或规则设计形成不当排除限制。 针对生成式内容风险,专家认为应推动“风险识别—场景分级—责任匹配”的治理框架:低风险场景侧重提示义务与透明度要求,高风险场景强调人类复核、专业资质与更严格的合规审查;同时完善证据规则与举证责任分配,强化可追溯性,为司法裁判提供更清晰的事实基础。 五、前景:以法治确定性护航创新,以协同治理提升国际竞争力 与会人士认为,人工智能产业进入“深水区”,治理的关键在于形成可预期、可执行、可迭代的规则体系:既要为创新留出空间,也要让责任可以落实、权益能够保障、风险能够被管住。随着企业加快“走出去”,跨境数据流动、知识产权合规、产品与服务责任、技术标准对接等问题将更加突出,亟需在国内制度完善的同时加强国际规则研究与沟通协作,提升我国人工智能产业的合规能力与全球竞争力。

人工智能治理的核心在于厘清边界、落实责任、完善救济机制。只有以问题为导向,制定切实可行的规则,才能实现技术创新与社会安全的平衡,让AI更好地服务社会。