美国防部将人工智能企业列入供应链风险名单 科技公司与军方合作陷入僵局

美国国防部近期对本土科技企业采取罕见制裁措施,人工智能开发企业Anthropic因坚持技术使用伦理准则,成为首个被列入"供应链风险"名单的美国公司。

这一决定标志着人工智能军事化应用引发的矛盾进入新阶段。

问题焦点在于军方要求对Claude模型拥有完全自主使用权。

该模型是目前美军秘密行动中部署的唯一商用AI系统,但Anthropic明确禁止其应用于全自动武器研发和国内大规模监控。

五角大楼在3月6日发布的声明中强调,供应商对"合法军事用途"的限制可能危及作战安全,这一立场得到总统行政令的支持。

深层矛盾源于技术伦理与军事需求的根本冲突。

据悉,Anthropic去年与国防部签订2亿美元合同时,双方已就使用边界达成书面协议。

但随着AI在伊朗相关军事行动中的深度应用,军方要求突破原定限制。

业内专家指出,这反映出人工智能作战系统"灰度地带"正在扩大——既非完全自主武器,又能显著提升军事效能的新型技术形态,使得既有监管框架面临挑战。

事件已产生显著的产业连锁反应。

在Anthropic被列入风险名单后12小时内,OpenAI即宣布与国防部达成新合作协议,其条款包含"国家安全豁免"但书。

同时,Palantir等军事承包商股价出现异常波动,市场担忧技术供应链重组可能影响现有项目进展。

更值得注意的是,xAI等新兴企业正积极填补市场空缺,这种竞争态势可能加速AI军事化应用的进程。

法律层面角力仍在持续。

Anthropic首席执行官阿莫代伊已表明将提起诉讼,主张政府越权干预企业技术自主权。

美国战略与国际研究中心报告显示,类似纠纷可能触发《国防生产法》第1237条款的适用性争议,该条款通常用于管控外国技术风险,此次首度应用于本土企业引发法律界广泛讨论。

前瞻观察显示,此事件或成美国AI监管分水岭。

国防部正在修订的《负责任人工智能战略》草案中,已新增供应商合规性评估章节。

国会两院也有议员联署提案,要求明确军事AI应用的"可接受风险"标准。

分析人士认为,随着人工智能成为大国竞争关键领域,技术供应商将面临更严峻的"选边站"压力。

将本土头部科技企业贴上“供应链风险”标签,表面是一次采购与合规处置,实质是国家安全逻辑与技术治理原则的激烈碰撞。

如何在确保军事体系可用、可控的同时,防止技术滑向高风险用途,考验的不只是企业立场与政府权力边界,更是现代战争形态下对规则、责任与底线的重新定义。