在2023年3月31日北京,新华社发了一篇报道,主要讲美国的事儿。人家为了在AI军事领域独大,硬是把一家美国AI企业给盯上了,因为这家企业拒绝给美国国防部无限制使用它的技术,国防部就把它列入了联邦政府的供应链黑名单。这下可好了,这家企业直接把国防部告了。一个联邦法官初步裁定说国防部的行为违宪,把相关禁令给暂停了。不过国防部还不服气,又提起了上诉。这事儿闹得挺大,硅谷跟五角大楼直接就对峙上了,说到底就是怎么界定AI在军事上的权限。 现在AI被滥用得很厉害,比如最近对伊朗的军事行动,美军大量用AI去识别目标和实施打击,结果造成了平民死伤和设施损毁。你看去年9月联合国秘书长古特雷斯就在安理会公开辩论里警告说,不能把人类命运交给算法来决定。要是不赶紧把规矩立好,AI在战场上被滥用的情况肯定还会发生。比如《大西洋》月刊记者泰勒·奥斯汀·哈珀说有一次袭击导致168名女童遇难,他认为这是AI目标识别出了错。但《新闻简报》网站文章觉得问题关键还在于决策者选择了容忍大量平民伤亡。 中国在这个方面态度挺明确的。2023年发布的《全球人工智能治理倡议》就成了中国参与全球AI治理的重要文件。去年2月在西班牙举办的第三届“军事领域负责任使用人工智能”峰会上,中国外交部军控司副司长李驰江也提到了这个事儿。他说在军事领域怎么负责任地用AI,关系到全人类的未来。中方一直都很重视AI军事应用的风险防范和安全治理。 还有一个细节是关于伊朗最高领袖哈梅内伊的情况。据报道说在美伊冲突的那天空袭中他遇害了,这就是美以利用AI和网络间谍手段干的坏事。那天伊朗南部霍尔木兹甘省米纳卜市沙贾雷·塔耶贝小学也遭到了袭击,导致168名女童遇难。 摩根·普拉默这位“美国人负责任创新”政策副总裁指出,美国政府把AI企业列入供应链黑名单的做法暴露了政策上的真空。这种真空导致技术缺乏必要的约束,结果在军事行动中就被肆意滥用了。美国军方的做法很像是在给科技企业做“服从性测试”,想通过这种方式来掌控AI军用的主导权和规则解释权。 现在这种情况越来越严重了,为了避免技术突破伦理和国际人道法的底线引发不可预估的安全风险,必须赶紧建立一个全球AI治理体系才行。毕竟“以人为本、智能向善”才是正道啊!