“安全威胁”的标签还有待观察,但有一点明确:“言论自由”正在成为新的监管红线和宪法枷锁给政府带来更

美国联邦法官在3月26日裁定,把Anthropic列为供应链风险企业并禁止其提供模型的做法,是对言论自由的侵犯。在这个案件中,美国政府被法院叫停,不能把安全威胁当作封杀AI公司的借口。这是一个意义重大的裁决,给了美国政府的行政权力施加了限制。过去,美国政府经常把国家安全当成借口,封杀像华为、TikTok和大疆这些公司。但这次,法官把Anthropic作为判例,明确了不能随意给美国公司贴上“安全威胁”的标签。Anthropic是一家注册在美国的人工智能公司,它的创始人是前OpenAI高管,他们使用的是“宪法AI”技术路线。 美国政府想封禁这家公司,但法官认为政府使用了错误的法律依据。法官还指出,模型输出的内容是言论自由的一部分,政府不能因为担忧风险就禁止它们使用。这个判决不仅影响了Anthropic,也可能影响到其他美国AI公司,比如OpenAI的ChatGPT、谷歌的Bard还有Meta的Llama。言论自由正在成为AI监管的新红线,这对美国AI公司来说是个好消息,但对美国政府来说是个坏消息。因为这意味着他们在监管AI时需要更加谨慎。 美国政府试图用行政手段来限制自己国内的AI公司发展,但这次法律体系出手制止了他们。法院明确表示不能把“安全”当成万能钥匙想锁谁就锁谁。“国家安全”这杆大旗在过去被美国政府广泛使用来打压竞争对手,但现在法官却让这杆大旗失效了。 这次判决也暴露了美国技术霸权战略的问题。过去几年里,“小院高墙”策略使得美国政府能够轻松封杀外国竞争对手。但这次当政府想用同样方法对付自己人时却行不通了。这对中国和其他国家而言是一个积极的信号:即使在技术领域上落后于美国,仍然有机会发展壮大。 这个判决让“宪法第一修正案”在AI监管中再次凸显出来。它告诉我们,“国家安全”这杆大旗不是谁都能轻易举起的。如果“安全牌”只能打给外国公司而不能用在自己人身上,“小院高墙”战略就有了巨大漏洞。中国和其他国家的AI公司可以继续和政府合作发展新技术,只要他们满足足够安全的要求。 总之,这次判决展示了美国法律体系对行政权力的制约作用。过去几年里习惯用“安全”当作大棒随意打击对手的做法已经行不通了。“言论自由”正在成为新的监管红线和宪法枷锁给政府带来更多挑战和限制。未来美国政府还敢不敢随便给公司贴上“安全威胁”的标签还有待观察,但有一点已经明确:“国家安全”这杆大旗并不是谁都能随便举起的。