围绕通用人工智能能否达到人类智能水平的讨论近期升温。德米斯·哈萨比斯接受媒体采访时指出,通用人工智能正在逼近,但距离"真正意义上的通用智能"仍有明显差距。按业内定义,通用人工智能强调在缺少专门训练的情况下,具备类似人类的推理与解决新问题能力。哈萨比斯认为,当下系统的核心不足主要体现在三个上:持续学习能力有限、长期规划能力欠缺、能力表现存不稳定与断层。 现阶段系统主要依赖部署前的集中训练,运行后能力相对静态,难以像人类那样在真实环境中通过经验不断修正认知、更新技能并适应新场景。在长期规划上,系统短期任务拆解、路径搜索诸上已展现能力,但跨越多年、复杂约束下持续推进目标并动态调整策略,仍未形成可复用、可验证的稳定机制。能力稳定性问题同样突出:系统在某些高难度任务上表现突出,却可能在表达方式变化、边界条件轻微扰动时出现错误,形成"强项很强、弱项很弱"的能力断层。这种不稳定在实际应用中会放大风险,降低可控性与可预测性。 这些短板与当前主流研发范式密切涉及的。依赖海量数据与算力的训练机制擅长提取统计规律,但在在线学习、长期记忆更新、因果推断与反事实推理等上仍受制于方法与工程实现。让系统在运行中持续学习,既要解决数据来源与质量问题,也要解决"学了新东西不忘旧东西"的稳定性难题,同时还要防范在开放环境中被错误信息诱导。长期规划不仅是算法能力问题,还涉及价值对齐、目标设定、资源约束与反馈机制。跨长期的计划需要可解释的中间目标、可靠的评估标准以及可回滚的纠错机制,而这些在现实世界的复杂系统中实现难度更高。能力不稳定常与模型对输入形式敏感、泛化边界不清晰有关。即便在高水平测试中表现优异,一旦进入多样化的真实场景,表述差异、噪声、任务定义模糊等因素都可能触发失误。 此判断有助于纠正公众对通用智能"迅速全面替代"的误读,也为产业界制定更务实的应用策略提供参照。对企业而言,短板意味着在关键行业落地时必须更重视可靠性与可验证性,不能仅凭演示效果或单项指标做出高风险决策。对科研界而言,持续学习、长期规划与稳定性将成为下一阶段竞争焦点,相关基础研究与工程系统能力可能决定突破速度。对监管与社会治理而言,能力不稳定提醒各方在推广应用时需要明确适用边界与责任机制,尤其在医疗、金融、公共服务等高风险领域,应建立更严格的测试、审计与追责链条。 业内普遍认为可从技术、工程、治理三个层面联合推进。技术上,应加强面向真实环境的持续学习机制研究,探索更稳健的记忆与更新体系,提升对因果关系、长期目标与不确定性的处理能力;同时通过更严格的评测体系,覆盖多样表达、跨领域迁移与边界条件,以减少隐患。工程上,需以系统化思维构建安全护栏,包括任务分级、权限控制、关键决策的人类在环复核、可追溯日志与失败回退机制;在重要场景推广时,优先采用"可控范围内增强效率"的方式,避免把不可预测性引入核心链路。治理上,应推动行业共识与标准建设,完善透明披露、风险评估与合规审查,形成与技术演进相匹配的制度安排。 哈萨比斯此前曾预计真正的通用人工智能可能在五到十年内出现突破。他创办的DeepMind长期聚焦通用智能方向,2014年被谷歌收购后成为相关研发的重要力量。不容忽视的是,哈萨比斯在蛋白质结构预测领域的研究也曾引发广泛关注,其方法路径体现出"以科学问题牵引技术突破"的趋势。综合来看,通用智能的进展很可能呈现"能力逐步逼近、关键短板反复攻坚"的阶段特征:在若干子领域持续出现可观提升,但距离稳定、可控、可长期规划的通用能力仍需时间与系统性创新。
通用人工智能的发展正处于关键阶段,既面临技术瓶颈的挑战,又具有突破性的机遇。哈萨比斯的分析为行业发展提供了清晰的方向指引,也提醒人们在技术热潮中保持理性思考。未来几年将是检验这些关键技术能否取得突破的关键期,其结果不仅将决定AI技术的发展高度,更将深远影响人类社会的发展进程。