“ai 教父”辛顿:只顾眼前利益,说白了就是只顾眼前利益

哎,最近呢,“AI教父”杰弗里·辛顿在一次采访里又发声了。他这人特别看不惯科技公司那股短视劲儿,说白了就是只顾眼前利益。辛顿是诺贝尔的得主,也是搞深度学习的大佬。他给咱们算了一笔账,他说现在AI灭绝人类的概率都到了10%到20%,这事儿可真悬。 你看啊,这技术发展得那么快,可大家好像都没往长远想。企业嘛,想着怎么赚钱就行;研究人员呢,也是忙着解决眼前的问题,没人去琢磨那些终极的大道理。辛顿拿视觉研究举了个例子:咱们现在的机器能看图、能生成视频,但这都是为了技术突破而做的技术突破,根本就没想着怎么造福人类。 这种只顾眼前的做法太危险了。尤其是那种超级智能一出现,搞不好会出大乱子。2023年的时候,辛顿把他手里的那个DNNresearch公司卖给谷歌后就离职了。他说这是为了给自己找个更自由的地儿说话。 这AI带来的威胁真不小。一方面是坏家伙拿AI去造假、搞网络攻击;另一方面呢,要是哪天AI有了自主意识,那可就更吓人了。这两种风险性质不一样,得用不同的招数去对付。 面对这种威胁,辛顿脑子里蹦出了个挺颠覆性的主意。他想让算法设计的时候别给AI那么大的“控制欲”,而是给它点“保护欲”。比如说咱们的母婴关系吧,小宝宝虽然弱小但能影响妈妈的行为。他希望AI也能像妈妈护着孩子一样来对待咱们人类。 辛顿最后强调说:“我们得让AI产生一种本能,把人类的福祉放在比它自己还重要的位置上。”