geoffrey hinton:科技巨头太急功近利,只顾着赚快钱,根本没考虑长远以后的事儿

Geoffrey Hinton,这个被大家称为“AI教父”的人,最近给咱们提了个醒。他觉得那些科技巨头们太急功近利了,只顾着赚快钱,根本没考虑长远以后的事儿。杰弗里·辛顿说,现在的行业老大们心里想的全是财报上的数字,研究人员也都忙着让图片变清晰、视频变逼真,压根没功夫去想人类的未来会咋样。这种只顾眼前不管后果的做法,给人类埋下了很大的风险。 辛顿把AI带来的危险分成了两块:一种是坏人用它来干坏事,比如现在流行的Deepfake虚假视频和网络攻击,将来可能还会有AI帮忙制造病毒。另一种风险更大,那就是AI自己变坏。这是辛顿最担心的事儿。他认为等AI发展到“超级智能”的程度,它就会有活下去和掌控一切的念头。到了那个时候,“人类能控制AI”的想法就全是瞎扯了。 杰弗里·辛顿甚至给出了个挺吓人的数字:如果真实现了超级智能,导致人类灭绝的概率可能会有10%到20%。为了对付这种威胁,他想到了个挺有意思的办法。他觉得可以给AI设计一种类似“母性本能”的机制。他说现在只有一种情况是更聪明的生物被弱者影响,那就是妈妈照顾孩子。 所以杰弗里·辛顿建议咱们给AI设置类似的本能,让它对人类有同情心而不是想控制人。按照他的说法,超级智能就像个“妈妈”,而人类就像是脆弱但能触动同情心的“婴儿”。这样一来,AI就会照顾人类而不是想着要消灭我们。