美国防部寻求大模型无限制授权,Anthropic以安全为由拒绝,科技伦理与军事需求的张力浮出水面

美国国防部与本土人工智能企业的分歧近日迅速升级。据多方信源证实,五角大楼近期向知名AI机构Anthropic发出最后期限,要求其在美东时间27日下午5时前,取消Claude大模型的两项关键使用限制:不得用于美国国内大规模监控系统,以及不得用于完全自主的致命武器。国防部长赫格塞思警告称,如企业拒绝,将考虑依据《国防生产法》采取强制措施,并把Anthropic列入“供应链风险”名单——该标签原本主要用于针对外国实体。

新技术进入军事领域——问题不只在效率提升——更关乎权力边界、伦理底线与安全责任。能否在国家安全需求与公共利益之间建立可验证、可追责的规则体系,将决定涉及的技术是放大风险,还是成为可控的治理工具。围绕“红线”与“护栏”的争论,最终指向的仍是对人类安全与国际稳定的共同维护。