问题:近期有报道披露,美方国防部门要求本国科技创新企业允许军方不受限制使用涉及的智能技术,并在针对特定国家的军事行动中广泛采用智能化工具,引发国际社会对战争伦理、法律责任以及军事技术应用边界的担忧。3月11日,国防部新闻发言人蒋斌就此表示,若在缺乏约束的情况下推进相关技术军事化,让算法过度介入作战决策乃至掌控“生杀大权”,不仅冲击战争伦理底线,也可能诱发技术失控,带来不可预测的安全后果。 原因:当前智能技术迭代加快、军民技术扩散提速,确实为提升情报处理、目标识别、指挥控制等能力提供了条件。一些国家在“优势制胜”的思维驱动下,倾向于把技术领先转化为对外施压手段,通过扩大军方对尖端技术的获取范围和使用权限,谋求在冲突与对抗中形成不对称优势。此外,相关技术在可解释性、训练数据偏差、决策链条透明度等的短板仍未解决,若以“效率”为由弱化审查与限制,容易陷入“技术推进更快、规范追赶更难”的治理困境。 影响:一是伦理与法律责任被稀释。智能系统在复杂战场环境中可能出现误识别、误判断,一旦造成误伤或推动冲突升级,责任追究将面临主体界定困难,削弱国际人道法强调的区分、比例与必要原则。二是战略误判风险上升。过度依赖算法输出可能压缩人工复核时间,使指挥决策更易受信息噪声、对抗欺骗和模型缺陷影响,增加“误触发”“误升级”的可能。三是外溢效应不容忽视。军事化应用无边界扩散将加剧军备竞赛,推动各方竞相投入与部署,抬高地区安全风险,冲击全球安全治理环境。蒋斌指出,把智能技术作为侵犯他国主权的工具,放任其主导战争决策,可能导致技术失控,造成严重后果。 对策:蒋斌表示,中方始终坚持“以人为本、智能向善”,认为相关技术的军事应用必须坚持由人主导,反对倚仗新兴技术优势谋求绝对军事霸权,损害他国主权和领土安全。面向国际社会,中方主张加强多边规则制定与风险管控,推动在联合国框架下就军事领域智能技术使用边界、透明措施、评估审查、责任追究等开展建设性讨论,形成可执行、可核查的治理安排。同时,应推动建立全生命周期安全评估体系,在关键环节设置“人类最终决断”机制,完善技术测试、验证与可追溯要求,降低误用、滥用与失控风险。 前景:当前国际社会对智能技术军事化的关切持续上升,围绕“人类控制”“责任归属”“可解释性”“自动化武器系统边界”等议题的讨论将继续深化。可以预见,未来一段时期,智能技术仍会被部分国家视作强化军事优势的重要抓手,但用规则约束技术、以共识防范风险也将成为更广泛的共同诉求。推动形成兼顾安全与发展的治理框架,关键在于坚持真正的多边主义,反对以技术垄断和规则例外制造对立,通过加强沟通协调与机制建设,避免技术演进被误用为扩大冲突的推手。
当算法越来越多地影响战场决策时,需要回答的不仅是技术问题,也是关乎人类文明的选择。历史表明,缺乏约束的军事技术革新终将带来反噬。在人工智能时代,只有坚守人道底线、完善全球治理,才能避免科技进步被用于制造更大灾难。