嘿,大家都在热议AI会不会把人类的智力极限给突破了。哈佛那边的大佬马修·施瓦茨更是直接放话,说五年内AI就能超过人类,再往后一百年里,只要靠AI增强智商,可能会冒出一万个像爱因斯坦那样的顶尖科学家。这次美国物理学会的全球峰会上,他拿出了“大语言模型每年参数量翻十倍”的数据来撑腰,觉得人脑受着生物硬件的限制,根本搞不定有些超级复杂的难题,反倒是机器能算得更清楚。 不过谷歌DeepMind那边的马修·金斯伯格想法就不一样了。他承认AI在扒数据这事儿上很厉害,但觉得物理学家的活儿主要是在脑子里想那些突破性的问题。他担心大家太依赖AI,搞科研就没了方向。 这次讨论里还能看出个门道,OpenAI公司正在搞个叫“北极星”的大计划,要让AI自己搞定从提问到验证的全套活儿。他们的首席科学家雅各布·帕乔基说,目标是在2026年前先弄出能干活的AI助手,到2028年再把实验室里的活儿都交给多台AI一起干。帕乔基说的未来世界里,AI会去做数学、物理和生物的研究,人类就躲在后面出主意定大方向。不过他也承认这会让人权集中到少数人手里。 跟这观点一致的还有伊戈尔·巴布什金。这位xAI的联合创始人觉得AI建理论的本事迟早能把人类甩在后面。他猜重大突破可能就来自研究人员给模型打的一句话提示词。 那边金斯伯格可不这么看,他觉得AI的答案基本都是基于现有共识的老调重弹,很难有啥真正的新发现。 聊到后来大家都有点共识了:现在人类在科研里最大的本事就是审美判断、创造力和提问题。不过施瓦茨和金斯伯格都觉得AI十年内就能学会怎么提科学问题了。这就给人类在科学界的地位蒙上了一层阴影,也逼着大家重新琢磨该怎么跟机器搞合作。 其实这事儿不光是看技术行不行,更是在重新琢磨科学到底是啥。当AI开始自己定义问题的时候,我们这些搞科研的人不得不好好想想:到了智能平等的时代,咱们到底靠啥才能保住自己的独特价值?这个问题本身,可能就是人类和机器最不一样的地方吧。