给美国初创AI企业Anthropic找麻烦的人来了。英国那边有个媒体报道说,这家公司已经准备好,要把美国政府告上法庭,原因是五角大楼把它列为了“供应链风险”。这个事情还得从2月27日说起,那天特朗普下令,让美国政府不要再用Anthropic的产品了。五角大楼紧跟着说,这家公司是国家安全风险。路透社也把这个截图放出来了。北京师范大学法学院的吴沈括教授还有中国互联网协会研究中心的副主任吴沈括,接受了总台环球资讯《闪评》栏目的采访。他们认为,美国把企业定成国家安全风险的做法,跟美国政府长期以来把国家安全泛化的主张是一致的。 美国政府觉得企业的安全底线碍手碍脚,觉得这是对国家权力的挑战。在这个案子里头,Anthropic公司是主张伦理底线的,特别是不能把AI用于全自主致命性武器这种玩意儿。而美国政府这边呢,就是要企业接受所有“合法用途”,包括军事用途。 这次争议的核心是Anthropic开发的大型语言模型Claude怎么用在军事领域上。根据公司的规定,Claude不能用于大规模监控美国公民,也不能用于那种一激活就能自主选择和打击目标的武器系统。《对话》杂志也报道了这事。五角大楼已经给Anthropic发了最后通牒:要么取消限制,要么别想再做这份生意。结果Anthropic没松口,结果就是被列入了黑名单。 吴沈括觉得Anthropic这次提起诉讼就是为了坚守伦理底线,可长远看形势不妙。他讲了三点理由:第一,美国政府封杀Anthropic用的是《美国国防生产法》的条款,但是这个条款指的是外国对手不是自己的公司;第二就是宪法里讲的自由;第三是程序问题也没走全。比如他们是在社交媒体上宣布的决定,没有经过正式的书面程序和听证什么的。 虽然法律依据有道理,但美国政府现在摆明了态度不想再跟这家公司合作了。所以涉事企业的商业前景很惨淡。吴沈括还说这个案子对人工智能在军事上的应用冲击很大。 说白了就是揭开了“技术中立”的遮羞布,显示出国家权力在工具化安排AI工具时多么任性;还有就是AI军事化存在失控风险;再者就是政企关系变得复杂了很多。所以啊在AI应用上得赶紧建立国际治理和规则才行。