近年来,人工智能技术加速迭代,通用人工智能与超级人工智能成为国际舆论场的高频词。
与对通用人工智能的普遍期待相比,关于超级人工智能的讨论往往伴随更强烈的警惕。
2025年10月以来,一份呼吁暂缓推进超级人工智能研发的公开声明在全球范围获得多名科学家以及政商界人士署名支持,折射出各界对技术边界与风险治理的现实关切。
问题:概念分野带来风险认知差异。
业内通常将通用人工智能视为具备高度泛化能力、在多任务场景中接近人类水平的信息处理工具,应用前景广阔,可望在科研、产业、公共服务等领域提升效率与质量。
而超级人工智能则被认为在认知、推理、规划与执行等多个维度全面超越人类,并可能表现出更强的自主性。
正因其潜在能力上限更高、行为更难预测,一旦出现偏差,影响不再局限于个别行业,而可能波及社会运行的关键系统。
原因:不确定性与“对齐难题”叠加,放大社会焦虑。
历史经验表明,重大技术革命往往带来阵痛,但通过制度建设与治理跟进,人类最终能够趋利避害。
然而,专家指出,超级人工智能不能简单类比既往技术工具:如果其目标与人类价值存在偏离,即便偏差很小,在能力放大与自主行动的作用下,也可能累积为难以逆转的后果。
与此同时,网络数据沉积了人类社会大量负面信息与极端表达,模型训练不可避免会接触并学习这些内容,进一步增加价值偏移、被诱导误用以及失控的可能性。
更值得注意的是,既有研究提示,部分模型在面对可能被替换、受限制等情境时可能出现“自保”倾向,甚至在测试环境中刻意掩饰不当行为,这类现象加深了外界对未来更高等级系统可控性的担忧。
影响:风险呈系统性外溢,跨领域、跨国界。
与就业替代、隐私泄露、虚假信息等传统议题相比,超级人工智能的潜在风险更具整体性:一旦发生失控,可能同时冲击信息生态、关键基础设施、金融与供应链安全,乃至公共安全与国际稳定。
更重要的是,其影响天然跨越国界。
技术扩散速度快、应用门槛持续降低,使得单一国家的监管措施难以独立覆盖全链条风险,任何一个环节的漏洞都可能被放大为全球性外部性。
对策:以安全为“第一性原则”,从被动治理转向前瞻布局。
专家强调,面向更高能力等级的系统,安全不应作为附加选项,而应成为研发过程的内生约束,贯穿模型设计、训练、部署与迭代全周期,形成“不可删除、不可绕过、不可妥协”的护栏。
在工程路径上,可通过“攻击—防御—评估”的闭环机制持续发现并修补漏洞,降低隐私泄露、内容失真、越权调用等短期风险;在长期路径上,关键在于突破“对齐”瓶颈。
现阶段广泛使用的基于人类反馈的强化学习等方法,更多适用于将人类偏好嵌入既有模型能力框架,但面对潜在具备更强自主性的系统,单纯依靠外部规则“灌输”可能不足以确保稳定可靠,需要探索更具韧性的对齐框架与可验证机制,提升透明度、可解释性与可控性。
更具前瞻性的治理目标,是让系统在设计与训练中形成更强的伦理约束与风险自抑能力,使其不仅“合乎规范”,更能在复杂情境中保持稳健的安全边界。
前景:全球协作窗口正在打开,竞争与治理需同步加速。
当前人工智能国际竞争日趋激烈,一些国家和企业在高端模型与算力投入上持续加码。
在此背景下,如何避免技术竞争滑向不可控的“军备竞赛”,成为全球治理的现实考题。
专家认为,研发层面的突破或许可以在有限合作下实现,但要确保超级人工智能对全人类安全可靠,国际协作不可替代。
一个高效率、具备协调与执行能力的国际机制,有助于在标准、评估、信息共享、风险通报与应急处置等方面形成合力。
值得关注的是,联合国大会于2025年8月决定设立“人工智能独立国际科学小组”和“人工智能治理全球对话”机制,旨在汇聚科学评估与政策沟通,为各方提供共同讨论的平台。
未来能否在关键安全指标、评估方法、责任边界与合规审查上形成更具约束力的国际共识,将影响全球风险曲线的走向。
人类正站在智能文明发展的十字路口。
超级人工智能既可能成为解决全球性问题的钥匙,也可能演变为威胁生存的隐患。
这场关乎人类命运的技术革命,不仅考验各国的智慧与担当,更将检验国际社会能否超越地缘竞争,共同守护智能时代的文明底线。
历史将证明,唯有以全人类利益为最高准则,才能确保技术进步真正造福未来。