问题——军方“放开使用”诉求与企业“设限红线”正面碰撞。 据美国媒体披露,美国国防部近期与多家头部人工智能企业就模型军方场景中的调用范围进行磋商,并强调希望对应的技术可用于“所有合法用途”。在现行行业惯例下,多数通用模型通常设置安全限制,避免被用于武器研制、情报侦搜、战场打击等高风险场景。报道指称,围绕一项金额约2亿美元的合作,军方与其中一家企业的分歧最为突出,美方甚至传递出可能终止合作、并将其列入“供应链风险”观察名单的信号。 原因——作战效率逻辑与安全治理逻辑差异显著。 从军方角度看,现代军事行动高度依赖信息优势与决策速度,工具链要求“随时可用、场景可扩展”。在实战或高强度演训中,作战人员难以对每一次调用进行逐条报备与事后核验,更不可能在行动中与供应商逐项确认使用边界,因此倾向于要求供应商提供更宽泛授权,减少技术与流程摩擦。 而从企业角度看,通用模型一旦深度嵌入军事系统,外溢风险、误用风险与责任归属问题将同步上升。报道显示,该企业对两类场景划定明确禁区:一是利用模型对美国民众实施大规模监控;二是用于研发可在缺少人类最终决策环节的完全自主武器系统。企业担忧,一旦“合法用途”被解释为无边界授权,技术可能被推向高争议、高风险的应用区间,进而引发法律、伦理与商业信誉的多重冲击。 影响——合作不确定性上升,军方替代与企业声誉风险并存。 一上,若合作生变,军方短期内可能面临项目延宕、系统迁移成本上升以及与既有涉密网络适配进度受阻等问题。报道同时指出,相关官员承认该企业的模型政府专项与涉密应用场景中表现突出,这意味着“弃用”并非零成本选择。另一上,企业若在高压下放松限制,可能遭遇内部治理分歧加剧、外部监管审视趋严以及公众信任受损;若坚持“红线”,则可能面临失去政府订单、被贴上“供应链不稳定”标签的市场风险。 更深层看,此事折射出全球范围内军民融合背景下的共同难题:当通用技术成为关键基础能力,边界不清会放大误用与滥用概率,而边界过窄又可能削弱国家安全体系的技术吸纳速度。 对策——以规则化条款与可审计机制降低对立成本。 业内人士认为,缓解矛盾的现实路径不在于简单“全放开”或“一刀切禁止”,而在于把抽象原则转化为可执行、可追溯的制度安排: 其一,采用分级授权与场景白名单管理,对训练、情报分析、后勤保障、网络防护等相对低敏感任务与高风险武器系统进行差异化开放,明确“禁止清单”与“允许清单”。 其二,建立可审计的使用记录与责任链条,在不影响作战节奏的前提下,通过日志、权限控制、密级隔离与第三方合规评估等方式,提升事后可追溯性。 其三,推动政府端统一需求口径与解释框架,减少“合法用途”概念的弹性空间,将人类最终决策、误伤防控、数据来源合规等关键要素写入合同与技术标准。 其四,加强供应链多元化与备选方案建设,以竞争机制降低单一供应商掣肘,同时也为企业坚持安全底线提供更清晰的谈判边界。 前景——军方需求上升与治理规则完善将长期并行。 从趋势看,随着模型能力提升与军方数字化转型加速,类似摩擦并非个案,未来可能更频繁地出现在涉密系统接入、模型微调数据来源、跨域调用与实战验证等环节。可以预期的是:其一,军方将持续寻求更高可用性与更深嵌入式集成;其二,企业将更加重视合规与声誉管理,尤其在自主武器与监控应用等敏感议题上保持审慎;其三,围绕技术可控、责任可追溯、风险可评估的制度化安排,有望成为双方重新寻找平衡点的关键。
这场价值2亿美元的合作危机,本质上是科技进步时代权力重构的缩影。当私营企业掌握关键国防技术时,传统的国家安全"命令-服从"模式正遭遇挑战。在人工智能深刻改变战争形态的今天,构建兼顾效率与伦理的新型军民关系,或许比技术突破本身更具战略意义。历史将证明,唯有在创新活力与责任约束间找到平衡点,才能真正实现科技造福人类的终极目标。