英伟达CEO黄仁勋驳斥"AI末日论" 呼吁理性看待技术革新与社会投资

围绕人工智能快速演进带来的风险与机遇,国际社会近期争论再度升温。

英伟达创始人兼首席执行官黄仁勋在接受播客《No Priors》采访时指出,人工智能领域正在出现一场“叙事之战”:一方强调潜在风险与不确定性,另一方更看重技术进步及其带来的效率红利。

在他看来,极端化的“世界终结式”叙事不仅无法帮助公众形成理性认知,反而可能在现实层面带来伤害,尤其是冲击资本与产业对人工智能的投入信心。

问题在于,人工智能风险讨论中存在将复杂议题简单化、情绪化的倾向。

黄仁勋认为,当大量公共信息被“末日论”与恐慌情绪占据,容易使企业、投资机构乃至部分政府部门在决策上趋于保守,从而形成“因担忧而停滞”的局面。

与之相伴的是,社会对人工智能的讨论经常在“全盘否定”与“盲目乐观”之间摆动,缺少对技术边界、治理工具与产业规律的系统辨析。

造成这一现象的原因,一方面在于人工智能具备强烈的跨领域影响力:从内容生产到软件开发,从金融风控到医疗辅助,技术渗透速度快、外溢效应强,公众对未知风险更敏感。

另一方面,人工智能议题天然容易被“科幻式表达”所包装,叙事冲击力强,传播成本低,容易放大极端案例与最坏情境。

此外,在监管讨论中,不同主体存在利益差异:大型科技企业、创业公司、研究机构、行业用户在市场份额、成本负担、竞争格局等方面诉求不同。

黄仁勋由此提出,应警惕由企业高管以行业之名推动“更强监管”的呼吁,因为其中可能包含明显的利益冲突,相关主张未必能代表社会整体利益。

影响层面,过度悲观首先可能压制投资与研发。

人工智能的安全、可靠与可控并非凭空出现,往往需要持续投入:更完善的数据治理、更严格的评测体系、更高标准的安全工程、更透明的合规流程,都离不开资金、人才和产业协同。

如果投资因恐慌而收缩,可能导致安全能力建设被延后,反而不利于风险可控。

其次,叙事极化还可能扰动政策讨论节奏,使公共治理从“问题导向、证据导向”滑向“情绪导向、压力导向”,增加政策不确定性,进而影响企业的长期布局。

再次,社会层面若将技术进步简单等同于就业冲击或系统性威胁,也容易削弱教育培训、产业升级等应对措施的推进力度。

在对策上,多方普遍需要在“发展”与“安全”之间形成更可操作的平衡框架。

其一,推动以风险分级为核心的治理方式,聚焦高风险场景与高影响应用,强化数据来源合规、模型评测、安全审计与责任追溯,避免“一刀切”限制影响创新与应用扩散。

其二,鼓励行业建立可重复、可对比的评测标准与披露机制,让安全能力从口号转为可检验指标,形成透明度与可信度。

其三,加强政府、科研机构、企业与行业用户之间的协作,完善人才培养与转岗培训体系,正面回应公众对就业结构调整的关切,减少不必要的恐惧情绪。

其四,在监管讨论中完善利益申明与公众参与机制,防止以竞争策略包装公共政策主张,确保治理工具以社会公共利益为准绳。

对于前景,黄仁勋强调,人工智能投资不仅关乎效率提升,也与安全能力建设密切相关。

随着生成式模型在办公协同、软件工程、制造业质检、科学计算等领域的应用持续拓展,产业对“可解释、可控、可追责”的需求将更强,治理也将从原则性讨论走向工程化、标准化落地。

可以预期,未来一段时间内,全球关于人工智能的讨论仍将伴随分歧,但决定行业走向的关键变量,将更多取决于技术进步与治理框架能否同步演进,能否在可控前提下释放创新动能。

人工智能技术的发展需要在创新与安全之间寻求动态平衡,既不能因噎废食,也不能盲目冒进。

黄仁勋的观点提醒我们,理性看待技术发展的机遇与挑战,避免让过度的悲观情绪成为阻碍人类科技进步的绊脚石。

只有在开放包容、积极进取的环境中,人工智能技术才能真正发挥其造福人类社会的巨大潜力,为构建更加美好的未来贡献力量。