陆建华:只有守住独立思考的底线,让ai 成为帮助成长的工具

这次全国政协会议上,中国科学技术协会界别的小组讨论成了大家关注的焦点,陆建华这位全国政协委员、中国科学院院士,还有清华大学电子工程系的教授,说出了很多人的心声:AI在教育里虽然带来了机会,但也给传统的教学带来了挑战。 其实这个问题早就不是什么秘密了,不少高校里的学生遇到难题就找AI,写论文也全靠AI代笔,要是没了AI,自己的脑子就彻底转不动了。陆建华用“双刃剑”这个词来形容AI,虽然挺形象,但关键是大家要明白,这种依赖可能正在偷走咱们的独立思考能力。 陆建华说,所谓的AI“上瘾”,最可怕的地方在于“认知外包”。学生写论文思路一团糟全靠拼凑,职场人士做报告不动脑子直接让AI代笔,就连做个简单的决定也习惯先问一问机器。他用孩子玩手机上瘾来打比方,这种依赖一旦形成,慢慢就会丧失自己做判断的能力。 看看调研的数据更让人揪心。美国麻省理工学院在2025年的一项研究显示,在写作任务中,用大模型辅助的人,对内容回忆的失败率高达83.3%,比那些纯自己写或者用搜索引擎找资料的人要高出约11.1%。 美国哥伦比亚大学还针对16791名大学生做过调查,发现用AI容易让聪明的人更聪明、笨的人更笨,“强者愈强、弱者愈弱”的马太效应被无限放大了。这种加剧的认知鸿沟不仅让教育变得不公平,传统的评价体系也彻底失效了。因为知识获取太容易了,大家根本没办法衡量学习者的创新能力和解决问题的本事。 陆建华在接受采访时特别强调:如果全社会都掉进了AI依赖的思维泥潭里去了,不光会影响人才的质量,还会影响未来社会的发展。这不仅是老师的失职问题了。 有意思的是美国那边也出现了一些变化:有的名校以前鼓励用AI写论文和做报告,现在却明令禁止使用。陆建华认为这是“走向了另一个极端”。他觉得完全禁止AI反而剥夺了学生利用它提升效率、学习如何跟机器协作的机会。“禁了”固然能保住学生的独立思考能力,但也不利于培养AI时代的核心竞争力。 面对这个难题怎么办?中国工程院院士黄卫也表示要全面看待这个问题。国家自然科学基金委员会信息学部组织专家调研后给出了一些建议。 首先就是要搞清楚AI科学安全使用的策略和基础研究。具体来说就是一方面要重点研究人类在跟机器协同工作时认知功能会发生什么样的适应性变化和长期演化规律;另一方面要研究青少年在智能环境下的认知行为特征和发展需求。只有这样才能最大限度地减少“认知外包”“信息茧房”这些负面效应。 其次是建立起一套评估和认证制度。针对那些面向公众特别是青少年的智能产品要分级分类进行评估和认证。 最后就是要加快实施全民认知素养提升计划了。 陆建华最后总结道:只有守住独立思考的底线,让AI成为帮助成长的工具而不是阻碍成长的枷锁,才能培养出有创新力、有判断力的新时代人才。