美政府勒令停用争议人工智能技术 科技企业与军方博弈升级

围绕人工智能技术国防领域的应用权限,美国政府与科技企业之间的分歧已演变为一场政商对立;特朗普政府此次强硬举措,反映了当前美国在人工智能战略控制权上的深层矛盾。 事件的焦点在于权力边界的界定。国防部长皮特·赫格塞斯向Anthropic公司首席执行官达里奥·阿莫代提出要求,要求该企业允许国防部对其人工智能工具进行"任何合法用途"的自由支配。此表述看似合理,实则涵盖范围极广。Anthropic公司对此提出了明确的反对立场,认为这种无限制的授权可能导致技术被挪作他用。阿莫代表示,公司对大规模监控系统和全自主武器系统的应用存在根本性的伦理顾虑,这些应用方式超越了公司的技术伦理底线。 特朗普在社交平台上的表态措辞强硬,将Anthropic指责为"觉醒主义者"和"失控的激进左翼人工智能公司",宣布联邦机构将在六个月的过渡期内逐步停止使用该公司产品。,国防部采取了更具惩罚性的措施,将Anthropic列为供应链风险对象。这一认定通常仅针对敌对国家的企业,意味着国防承包商将被禁止在执行五角大楼任务时部署该公司的技术。赫格塞斯还暗示将援引《国防生产法》,赋予政府强制使用Anthropic产品的权力。 这场争执的深层背景值得关注。自2024年起,美国政府和军方已开始使用Anthropic的技术。该企业由OpenAI前员工阿莫代创办,与OpenAI形成了直接竞争关系。不容忽视的是,OpenAI首席执行官山姆·奥尔特曼公开表示支持竞争对手的立场,在向员工发送的备忘录中声明,OpenAI同样对国防合同设有"红线",拒绝参与国内监控和自主进攻性武器的开发。这表明科技业界对人工智能应用边界的认识存在共识。 科技从业者的态度深入凸显了这一分歧的广泛性。亚马逊、谷歌和微软内部约70万科技员工的代表团体联名签署公开信,敦促各自的雇主企业"拒绝配合"国防部的要求。Alphabet员工工会执行委员会在声明中明确表示,科技工作者一致认为雇主企业不应参与战争对应的业务。这种来自基层的声音反映了科技从业者对伦理底线的坚守。 从法律和政策层面看,国防部举措存在明显的争议。美国国防部前官员匿名表示,国防部以《国防生产法》威胁Anthropic并将其列为供应链风险的依据"极其薄弱"。这一评价暗示政府的强制措施可能缺乏充分的法律基础。Anthropic公司已表示,若美国国防部决定停止使用其工具,公司将"协助实现向其他供应商的平稳过渡",这种配合态度与政府的强硬立场形成了鲜明对比。 这场争执也反映了美国在人工智能治理上的制度困境。一上,政府出于国防安全考虑,希望掌握对关键技术的绝对控制权;另一方面,科技企业基于伦理考量和商业独立性,拒绝无条件地服从政府要求。两者之间的张力在于,如何在国家安全和技术伦理之间找到平衡点。

此次风波表明,人工智能进入国家安全领域后,决定合作能否持续的不仅是技术能力,权限边界、责任划分与合规机制同样关键。如何在安全需求与权利保护之间建立可执行、可监督的规则体系,既考验政府的治理能力,也考验企业的自律与担当。对外界而言,这场争议释放的信号是:人工智能的“可用”,正在被“可控、可问责”重新定义。