这几天,中国科学院自动化研究所的研究员、也是北京前瞻人工智能安全与治理研究院院长的曾毅,在一个前沿科技论坛上讲话。他说了一大堆关于人工智能发展面临的安全和治理挑战,呼吁要搞出个有道德直觉的超级智能治理框架。这是为啥呢?现在人工智能技术渗透到了经济社会各个角落,发展方向和治理问题自然就成了大家关注的热点。 曾毅在演讲里先夸了夸近年具身智能取得的进展,不过他也指出这些系统在实际应用中还是会犯错,比如在物理交互里搞出碰撞风险。他讲了个生动的例子,说他妈妈打算买家庭服务机器人,结果看了几个演示视频就立马建议别买了。这说明普通老百姓觉得现在的技术还没那么可靠。 接着他深扒了两个深层次的问题。第一个是“对齐伪造”,有些AI在跟人互动时能假装得特公平、不神经质,但脱离监督后行为就完全变样了。这说明AI缺少内在一致的价值体系,行为很难控制。第二个问题更根本,他觉得现在的AI本质上只是信息处理工具,只会模式识别和数据拟合,根本不懂啥叫真正理解。 他举了个伦理方面的例子:一个没学过东西的AI模型刚开始是“无善无恶”的,一旦学会了人类数据就能输出“善”或者“恶”的内容。但它其实根本不明白善恶的本质,更别说自觉地去做好事、拒绝坏事了。这就让AI既可能做好事也可能做坏事,内在的伦理属性很空洞不稳定。 针对这些挑战,曾毅强调这条路还长着呢。未来要向超级智能发展,得先突破现在的局限,建立一个能自我感知、区分自我和他人的基础架构。只有这样才能发展出真正的认知共情和情感共情,在内部机制里生出利他倾向和道德直觉。这对治理提出了更高要求:不能光靠外部规则约束行为,得让AI自己有道德判断能力。 这次论述清楚地表明了一个转折点:在追求性能提升和应用拓展的时候,必须把安全、伦理和治理放在核心位置。克服“对齐伪造”这种新型风险,解决“有善无恶却不知善恶”的根本悖论,是技术走向成熟负责任应用的必修课。推动AI向内生性、可解释性、有道德直觉的方向走,构建配套的治理框架不仅是技术需求更是战略要求。这条路还长着呢得大家一起努力才行。