咱们以前总觉得AI就是美国那一套,现在不是这样了。2月12日的德国《时代周报》特意写了篇文章聊这个事儿,标题就是你会不会用AI给自己找工作?你看,德国这是彻底定下规矩了,联邦内阁批准了那份《人工智能市场监管和创新促进法》。说白了就是要在管好AI的同时,多想想道德问题。 以后开发AI的公司必须自个儿评估风险,风险越高的应用越要严格管,甚至直接不让发。比如职场里那种自动识别情绪的系统就没戏了,大范围的面部识别也不行,除非是安全部门干活。要是企业不守法,那就要吃罚单了,最高能罚到3500万欧元,或者是公司全球年营业额的7%。 媒体想把AI系统用在新闻报道或者广告上,也得让州里的监管机构盯着。这就意味着未来编辑室里的AI写稿机、个性化推送还有算法广告,都得接受检查。 联邦网络管理局以后就是咱们国家管AI的大管家了,专门盯着法规落实。谁发现公司违规都能举报。为了干好这份活儿,联邦网络管理局还得扩招43个人。 德国联邦数字化和国家现代化部长卡斯滕·维尔德贝格尔说要弄个专门的监管机构,主要就是看经济能不能跟上。现在各方对这个法案的反应还行,觉得它既能管又能促创新。法案里特意规定得给个实验室来测试AI系统,中小企业和学校都能用。 也有人觉得有些细节还得再商量,或者担心管得太严了。不过总体来看,这算是把欧盟那套AI法规落实得挺务实及时的。 除了公司违法的事儿,还有个更大的问题:“硅谷凝视”。很多常见的AI模型都是美国公司搞的,用的数据根本不反映别的国家的情况。比如拉丁美洲的小孩问ChatGPT谁是大政治家,机器十有八九会说乔治·华盛顿,而不是拉美自己的人。 牛津互联网研究所上个月查了超过2000万条ChatGPT的问话记录。大家让它说说哪个国家更安全或者更有智慧的时候,它提到那些富裕的西方国家的次数明显比其他地方多得多。 研究人员说这是因为这些大模型的数据里全是几百年前美国视角的东西,“偏见”早就成了它们的结构性特点。带有偏见的AI系统可能会让少数族裔在医保或者就业上吃亏。 智利最近搞了个叫LatamGPT的AI软件,就是想改改这毛病。这是30位科学家一起弄的语言模型。他们花了55万美元收集了超过8TB的信息——这相当于读了几百万本书的量。 智利科学部长阿尔多·巴列说这是为了打破偏见,不让拉美的形象被单一化。他觉得拉美不能光用别人的AI,那样会把传统文化都丢了。除了LatamGPT,东南亚有SEA-LION还有非洲的UlizaLlama也都冒出来了。