周志华委员建议优化人工智能科研布局 纠正"大模型万能论"误区加强基础算法研究

(问题)新一轮科技革命和产业变革加速推进的背景下,人工智能与科研范式的融合不断加深,正成为提升创新效率的重要工具。然而,全国政协委员、南京大学副校长周志华在7日下午召开的全国政协十四届四次会议第二次全体会议上提醒,当前部分科研与产业实践中出现一些需要警惕的倾向:一是资源配置过度向高算力消耗的应用层集中,基础研究投入相对不足;二是将“训练通用大模型”简单等同于“赋能科学研究”,出现“大模型包打天下”“一模通吃”的跟风现象;三是科学数据供给与治理短板突出,影响模型训练效率与可信度,重复建设与资源浪费较为明显。 (原因)周志华分析认为,上述现象背后有多重原因:其一,算力和应用更容易在短期内形成可见成果与量化指标,项目布局与资金流向因此更倾向“重应用轻基础”;其二,通用大模型在部分场景表现突出,导致外推边界被高估,一些团队对科学问题的复杂性、专业约束与可验证性认识不足,停留在对工具的直接套用;其三,科研数据获取成本高、实验条件差异大、标准不统一,再加上共享意愿不足、标注质量不稳定,难以形成权威、标准化、可复用的大规模数据集,从源头影响训练质量与结果可靠性。 (影响)与会人士认为,如果“重算力堆叠、轻原理创新”的路径被固化,可能带来三上后果:一是基础算法与核心方法储备不足,难以形成持续的原创突破,长期竞争力受限;二是科研在数据与模型层面反复“从头建设”,造成资金、算力与人才投入的结构性浪费;三是科学研究强调可解释、可复现、可验证的证据链,一旦数据体系与评价机制不到位,模型输出的可靠性与可追溯性难以保证,反而可能抬高试错成本,降低科研组织效率。 (对策)围绕破解上述问题,周志华提出多项建议。首先,应从国家与行业层面优化人工智能科研的统筹布局,避免资源过度集中于高算力消耗方向,更加大对算法基础研究的稳定支持;鼓励围绕具体科学问题开展“量体裁衣”式的算法设计与系统方案创新,提升从问题抽象、机理约束到模型构建的原创能力。其次,要补齐科学数据治理短板,推动数据标准体系建设与高质量共享,在确保安全合规前提下提升数据开放与复用水平;加强数据标注规范与质量控制,推动建设权威、标准化、大规模科学数据集,减少重复采集与重复标注,提高训练效率与可信度。第三,要面向交叉融合需求调整人才培养模式,建设既懂领域知识又懂方法工具的复合型队伍;在学位获取、职称晋升、绩效考核等关键环节探索设立“交叉学科特区”,完善更符合交叉研究规律的评价机制,缓解跨学科人才在传统体系中“难以归类”的现实问题。 (前景)业内专家表示,人工智能赋能科学研究的关键不在于单一路径的规模扩张,而在于基础理论、算法方法、数据体系与科研组织方式的合力推进。随着科学数据体系逐步完善、基础算法持续突破以及交叉人才队伍壮大,未来人工智能有望在材料、生命、地学、天文等领域形成更多可验证、可复现、可推广的科研新范式,推动科研从“工具增效”走向“方法创新”。同时,更加理性地统筹算力、数据、算法与场景配置,也将为有关产业的健康发展提供更稳固的创新支撑。

周志华院士的建议提示了科技创新中“本”与“末”的关系;人工智能快速发展的同时,既要抓住技术带来的机遇,也要保持判断力,避免盲目跟风。只有回到科研规律本身,持续夯实基础研究、完善数据治理、培养创新型与复合型人才,才能更有效地提升原创能力与科研效率,在新一轮科技革命中赢得主动,也为国家长远发展打下更扎实的基础。