人工智能发展得这么快,上海、杭州、北京、深圳这些地方早就开始琢磨怎么管了。这种技术像个会自己学习的东西,不管是干活还是治理社会,都被它改得面目全非。最近出的“十五五”规划建议,直接给咱们敲了警钟,说要赶紧完善规矩。现在,国家网信办、工信部这些部门也坐不住了,《生成式人工智能服务管理暂行办法》、《互联网信息服务算法推荐管理规定》这些文件都发出来了,算是把算法治理、数据安全、伦理这些基础框架给搭好了。 各地政府也在各个场景里做试验,像杭州的“城市大脑”和上海的“一网统管”,都在告诉大家怎么把AI用好。不过专家也说了,现在的治理有点吃力。中国科学技术发展战略研究院的专家指出了三个大问题:第一是管得太慢,跟不上技术更新的速度;第二是那些死板的条文对付不了活蹦乱跳的算法系统;第三是老想着堵窟窿,没怎么去想着带带路。 比如说现在到处都在玩的生成式AI,市场都已经铺开了,监管规则还在磨磨唧唧;再比如自动驾驶和医疗诊断这些要命的地方,现有的标准根本罩不住新技术搞出的新花样。这种跟着技术屁股后面跑的“跟随式治理”,以前还行得通,但技术越来越深入社会生活后,这种办法就不灵了。 针对这个问题,好几位专家都建议要搞个“前瞻塑造”。这意思就是说,不能光等出事了再去救火,得从源头开始管起。具体来说就是要建立四层机制:在搞研发的时候就审一审伦理问题;算法要是还在不停学习,得盯着点;用“监管沙盒”这种工具来平衡一下创新和规范;还有产业政策也得定下来,指明哪些方向该优先发展。 值得一提的是,咱们国家其实已经在一些地方试行了这套做法。比如那个专门管AI的委员会发布了新的伦理规范,把道德要求放在科研管理的最前面;北京和深圳在立法里也留了“创新条款”,给技术留了条后路;还有些大公司自己搞内部审计,也是想把内部规矩和外面的监管协调好。 其实这是一场大变革。现在看来,只有把制度既搞得严丝合缝又让大家有活力去创造才行。未来我们还得把法律跟伦理接上茬,让创新跟风险防控不打架,政府监管跟大家一起共治这事儿办好。这不仅是为了科技进步,更是咱们国家治理体系现代化的重要一步。