美科技企业拒绝军方无限制使用其技术 2亿美元合同面临终止风险

围绕新一代智能模型军事体系中的使用边界,美国国防部与美国企业Anthropic近日公开对峙;当地时间26日,Anthropic首席执行官达里奥·阿莫代伊发表声明称,无论国防部如何表态或施压,公司立场不变:其模型不应被用于在美国国内开展大规模监控,也不应用于完全自主武器系统。,他表示公司愿意继续向国防部及美军作战人员提供有关服务,并就合理使用条件保持沟通。 问题在于,双方对“合法目的”与“可接受用途”的理解存在明显落差。国防部发言人肖恩·帕内尔在社交媒体发文,要求该公司允许国防部“出于所有合法目的”使用其技术。国防部负责研究和工程的副部长埃米尔·迈克尔则强调,国防部不会进行大规模监控。但企业上认为,若缺乏具体条款限制与审计机制,“合法目的”可能执行层面被扩大解释,从而带来国内监控外溢风险和武器系统自主化失控风险。 造成该矛盾的原因,首先是美军对先进模型的依赖程度上升。美方消息称,Anthropic旗下某模型被认为是目前唯一用于美军“最敏感工作”的相关模型,这意味着其在特定任务链条上具有稀缺性与替代难度。稀缺性往往带来更强的议价压力与更高的政策关注度,也使得军方更倾向于寻求“通用授权”,以便在不同任务、不同部门间快速调用,降低审批与合规成本。 其次,技术治理与国家安全叙事之间长期存在张力。企业出于声誉、合规与风险控制考虑,通常希望将模型用途限制在明确场景,并对高风险领域设置“红线”。而军事机构的运作逻辑则更强调可用性、保密性与任务完成,尤其在危机情境下,倾向于减少外部限制。双方在透明度、监督主体和责任归属上难以达成一致,继续放大了不信任。 第三,合同与法律工具成为博弈手段。美国国防部长赫格塞思24日表示,若企业未能在当地时间27日傍晚前接受国防部要求,即允许军方不受约束地使用模型,将面临失去政府最高达2亿美元合同的风险。国防部还可能将该公司列入“供应链风险”,或援引《国防生产法》推动企业移除限制措施。上述表态显示,国防部不仅在采购层面施压,也试图通过风险评估与法律框架将商业决策纳入国家安全优先序。 这一争端的影响可能在多层面显现。对美国国内来说,围绕“是否、如何、由谁监督”智能技术用于安全部门的讨论或将升温。即便国防部否认开展大规模监控,公众与立法层面对技术滥用的疑虑仍可能推动更严格的审查机制,尤其是涉及国内数据、跨部门共享与自动化决策时,争议更易扩散。 对军方能力建设而言,若与关键供应商关系紧张,美军在敏感任务中对特定模型的依赖可能成为结构性风险。一上,限制条款可能影响模型某些任务场景的部署速度;另一上,强制性手段若被频繁动用,也可能加剧企业对政府订单的不确定预期,影响技术合作的稳定性与持续投入。 对产业生态而言,此事可能形成示范效应:一旦军方要求“全用途授权”成为常态,更多企业将被迫在商业利益与风险底线之间做选择,进而影响行业的自律规则与竞争格局。与此同时,事件也可能推动更明确的“军用与民用边界”分类管理,例如将国内场景监控、自动化杀伤链条等列为高风险用途,建立更强的使用审计与问责机制。 在对策层面,降低对立的关键在于把“原则表态”转化为“可执行条款”。一是明确用途清单与禁止清单,对“国内大规模监控”“完全自主武器”以及相近概念进行可操作定义,避免概念模糊导致争议反复。二是建立分级授权机制,根据任务敏感度、数据来源与部署地点设置不同权限与审核流程,在满足作战效率的同时为高风险应用加装“制度保险”。三是引入独立或多方的合规审计与事后追责框架,使技术提供方、使用方在责任边界上更清晰,减少“无法监督”的担忧。 前景来看,随着智能模型深度嵌入军事指挥、情报分析与后勤保障,类似“边界之争”可能更频繁出现。短期内,美军或将加速推进多供应商方案与自研体系,以减少对单一企业的依赖;企业则可能进一步强化使用政策、模型限制与客户筛选机制,以降低被卷入争议的概率。从更长周期看,能否形成兼顾国家安全需求与权利边界的制度安排,将决定技术合作的稳定性,也将影响智能技术在公共治理与安全领域的社会接受度。

这场争端本质上反映了信息时代国家安全与技术伦理之间的张力;在人工智能技术日益重要的背景下,如何在维护国家安全和防范技术滥用之间找到平衡点,成为各国都需要面对的课题。美国国防部与科技公司的分歧并非孤立事件,而是全球范围内科技治理面临的共同挑战。这场对话的最终结果,不仅关乎双方的商业关系,更将影响人工智能技术在军事领域应用的未来方向,以及科技企业在国家安全事务中的角色定位。