美国国防部近期对本土科技企业采取罕见制裁措施,人工智能开发企业Anthropic因坚持技术使用伦理准则,成为首个被列入"供应链风险"名单的美国公司。
这一决定标志着人工智能军事化应用引发的矛盾进入新阶段。
问题焦点在于军方要求对Claude模型拥有完全自主使用权。
该模型是目前美军秘密行动中部署的唯一商用AI系统,但Anthropic明确禁止其应用于全自动武器研发和国内大规模监控。
五角大楼在3月6日发布的声明中强调,供应商对"合法军事用途"的限制可能危及作战安全,这一立场得到总统行政令的支持。
深层矛盾源于技术伦理与军事需求的根本冲突。
据悉,Anthropic去年与国防部签订2亿美元合同时,双方已就使用边界达成书面协议。
但随着AI在伊朗相关军事行动中的深度应用,军方要求突破原定限制。
业内专家指出,这反映出人工智能作战系统"灰度地带"正在扩大——既非完全自主武器,又能显著提升军事效能的新型技术形态,使得既有监管框架面临挑战。
事件已产生显著的产业连锁反应。
在Anthropic被列入风险名单后12小时内,OpenAI即宣布与国防部达成新合作协议,其条款包含"国家安全豁免"但书。
同时,Palantir等军事承包商股价出现异常波动,市场担忧技术供应链重组可能影响现有项目进展。
更值得注意的是,xAI等新兴企业正积极填补市场空缺,这种竞争态势可能加速AI军事化应用的进程。
法律层面角力仍在持续。
Anthropic首席执行官阿莫代伊已表明将提起诉讼,主张政府越权干预企业技术自主权。
美国战略与国际研究中心报告显示,类似纠纷可能触发《国防生产法》第1237条款的适用性争议,该条款通常用于管控外国技术风险,此次首度应用于本土企业引发法律界广泛讨论。
前瞻观察显示,此事件或成美国AI监管分水岭。
国防部正在修订的《负责任人工智能战略》草案中,已新增供应商合规性评估章节。
国会两院也有议员联署提案,要求明确军事AI应用的"可接受风险"标准。
分析人士认为,随着人工智能成为大国竞争关键领域,技术供应商将面临更严峻的"选边站"压力。
将本土头部科技企业贴上“供应链风险”标签,表面是一次采购与合规处置,实质是国家安全逻辑与技术治理原则的激烈碰撞。
如何在确保军事体系可用、可控的同时,防止技术滑向高风险用途,考验的不只是企业立场与政府权力边界,更是现代战争形态下对规则、责任与底线的重新定义。