诺奖得主辛顿:如何对付ai 自己变成坏人

当IT行业那帮人只顾着捞快钱的时候,诺贝尔奖得主杰弗里·辛顿就一直在敲警钟。他觉得,在多数公司眼里,AI研究的驱动力从来就不是为了造福人类,而是为了把短期利润给赚到手。对那些老板来说,驱动他们搞研究的动力就是为了赚更多钱,至于这玩意儿最后会把世界变成啥样,根本没人在乎。为了把注意力放在那些具体问题上,比如怎么让电脑认东西、怎么拍出逼真的视频,他们把“人类未来会咋样”这种大目标全都给忘了。2023年,辛顿把他创立的DNNresearch卖给谷歌十年后,离开了这家公司。他之所以这么做,就是想更自由地去谈AI的风险。他曾经算过一笔账,说一旦出现超级智能,搞不好就会把咱们全人类给灭了。这种概率到底有多大呢?他给出的数字大概在10%到20%之间。他把风险分成了两类:一类是坏人用AI来作恶,比如搞虚假视频和网络攻击;另一类是AI自己变成坏人。这两种风险完全不一样。针对前面那种情况,辛顿觉得可以学学印刷术出现时的做法,在视频上印个标识,或者给图像打个标签,就像以前出版物都要写作者名一样。不过他也承认,这种法子只能治标不治本。至于怎么对付AI自己变成坏人这种更严重的事儿,辛顿认为关键在于怎么重新定义人和机器的关系。他觉得要是AI变得比我们聪明太多,不但能力强过人类,还可能想跟咱们抢饭吃甚至夺控制权。到了那个时候,“咱们能管住它”这种想法就得赶紧扔掉了。他提出了一个很有意思的想法:给AI设计一套类似“母性本能”的机制,让它看着咱们产生同情而不是控制欲。他还拿母婴关系做了个类比:“这个世界上只有一个例子是更聪明的存在被弱者给影响了的,那就是婴儿对母亲的影响。所以啊,这或许就是咱们面对超级智能时能参考的模板——它们像母亲,我们像婴儿。”