数字经济加速发展,人工智能已从单一工具升级为具备自我演化特征的系统性创新引擎。国家信息中心最新研究显示,2023年我国人工智能核心产业规模突破5000亿元,技术渗透率较五年前提高12个百分点。技术能力的跃迁,正对传统治理模式提出新要求。当前治理实践呈现“双轨并行”。一上,政策供给持续完善,《生成式人工智能服务管理暂行办法》等文件相继出台,算法备案、数据安全各上形成基本约束。杭州、深圳等试点城市通过“智能审批”“AI执法记录”等应用,探索以技术提升治理效能的路径。另一方面,治理滞后问题更加突出。中国社科院科技法治研究中心监测显示,近三年涉及人工智能的纠纷案件中,83%与现行规范未覆盖新型应用场景有关。深入分析认为,短板主要来自三方面结构性矛盾。首先是时差效应,现有规则平均滞后技术应用约18个月,共享算法、多模态大模型等新形态出现后,监管往往陷入“追赶式立法”。其次是工具局限,基于文本的静态监管难以适配算法的动态演进。以某电商平台为例,其算法在年度迭代中出现127项参数变动,但监管手册仍沿用三年前标准。更值得警惕的是目标偏移,在商业化应用占比达76%的情况下,医疗、教育等公共领域的研发投入持续承压。针对上述挑战,国务院发展研究中心建议构建“三维治理框架”:在时间维度实施“预审—追踪—回溯”的全周期管理,要求重大AI项目提交伦理影响预评估;在方法维度开发“监管沙盒”等实验性工具,北京中关村已试点算法运行实时监测系统;在价值维度建立技术应用分级目录,将养老护理、灾害预警等民生领域纳入优先发展序列。值得关注的是,长三角地区正在推进治理创新联合实验,通过建立跨区域数据治理联盟、制定算法开源标准等举措,为全国层面的制度设计提供参考。工信部对应的负责人透露,新版《产业创新发展指南》将首次设置“负责任创新”专项指标,引导企业将伦理要求纳入研发流程。
人工智能带来的不仅是技术变化,也是治理挑战。只有把握技术演进规律、前移治理关口,并在制度设计中落实公共利益,才能在效率提升与风险防控之间取得更高水平的平衡。面向未来,应以制度现代化带动治理能力提升,用更具前瞻性的规则引导技术向善,使创新活力与安全底线相互支撑、共同推进。