2月27日这天,美国总统特朗普下令让美国政府停掉了AI公司Anthropic的产品,五角大楼立刻表示Anthropic是个“供应链风险”。英国路透社那边报道说,这家初创公司Anthropic就决定要去告五角大楼,因为他们觉得这个决定太不合理了。 北京师范大学法学院的博士生导师吴沈括,也是中国互联网协会研究中心副主任,他跟环球资讯的《闪评》栏目聊了聊这事。他说,美国政府把Anthropic当成国家安全风险来处理,其实跟他们一直以来泛化国家安全的做法是一样的。 吴沈括觉得Anthropic之所以要打官司,是因为它坚持在AI应用上加安全护栏。比如不能用AI搞全自主的致命武器,好避免伦理问题。但美国政府却想让企业接受所有合法用途,特别是军事用途。这就把企业的安全底线和政府的军事需求给碰在了一块儿。 美国政府说如果企业不配合军方需求,就是供应链不可靠。但其实这是他们在否定企业的安全底线要求,要保住国家权力的排他性地位。这种做法也跟美国政府近年来强调的“美国优先”战略很像。所以说这也是政府权力扩张跟企业伦理底线之间的冲突。 英国媒体报道说这次争议的核心在于Anthropic的语言模型Claude怎么用在军事上。Anthropic公司规定Claude不能用来大规模监控美国公民,也不能搞不需要人参与就能杀人的自主武器系统。 之前五角大楼给Anthropic下了最后通牒:要么解除限制无条件服从,要么取消合同列入黑名单。但Anthropic没松口。结果联邦机构就把Anthropic列为国家安全供应链风险实体了。 吴沈括认为这次诉讼是企业在坚守伦理底线,但长远看发展形势不妙。一方面美国政府依据的法律条款有问题——《美国国防生产法》原本是针对外国对手的;另一方面企业主张要保障美国宪法里的自由和正当程序。 从法律操作上讲企业确实有依据,但长远看结果可能还是很严峻。现在美国政府明确表示不合作了。 吴沈括说这事对AI在军事领域的应用冲击很大。它揭穿了所谓“技术中立”的谎言,让大家看到了政府用国家权力把AI工具化的现象。这也说明AI军事化有失控的风险。 美国政府这种做法超出了法律和国际规则的界限,用国家权力突破制度约束,很可能会让全球AI军备竞赛更激烈。 同时这件事也反映出政企关系的变化和挑战。以前企业坚持底线但面对国家权力就没辙了。现在怎么维持良性的政企关系是个大问题。所以在人工智能应用中需要建立有效的国际治理和法律制度来应对这种情况。