巴菲特警示AI风险堪比核武器 呼吁警惕新兴技术失控风险

问题——技术跃迁带来“可用即扩散”的新型风险。

围绕人工智能快速发展,巴菲特指出,技术演进的方向与外溢效应存在高度不确定性,而这种不确定性本身就可能成为风险源。

与传统技术不同,人工智能一旦形成广泛应用生态,相关能力更容易跨地域、跨行业扩散,且在较低门槛下被复制与滥用。

其核心挑战不在于“能否做”,而在于“做了会如何被使用、由谁使用、在何种边界内使用”。

原因——三重因素叠加放大治理难度。

一是能力扩散快。

模型训练与工具链迭代频繁,产业链上游的算法、算力、数据及下游的应用场景相互促进,使得技术升级呈加速态势。

二是社会识别成本上升。

合成语音、换脸影像、自动对话等技术使“真实与伪造”的区分门槛显著提高,普通公众与机构在第一时间做出准确判断的难度增加。

三是规则与共识滞后。

新技术从研发到落地往往快于监管完善与国际协调,导致责任界定、证据标准、跨境执法等环节存在空档,给不法分子留下可乘之机。

影响——从个人权益到金融秩序,风险呈链式传导。

巴菲特以多次出现的冒名诈骗为例指出,若有人试图在远距离实施欺诈,可能通过合成声音与影像等手段进行“高度拟真”交流,进而突破传统反诈依赖的身份核验逻辑。

此类风险外溢至金融领域,可能诱发账户盗用、投资骗局、市场谣言传播与群体性恐慌,增加交易成本与信任成本。

更深层的影响在于,若社会对信息真实性的信任基础被持续侵蚀,公共沟通效率下降、企业合规成本上升,科技创新本身也会因信任缺口而承压。

巴菲特将其与核技术风险作类比,强调“知道如何制造”并不等于“能控制扩散”,当能力被更多主体掌握,安全边界必须同步强化。

对策——以“可控、可审、可追责”为主线完善治理体系。

其一,强化身份与内容标识机制。

推动关键场景的多因子认证和反欺诈系统升级,完善合成内容的可验证标记、溯源与水印等技术措施,降低伪造内容的传播效率与收益空间。

其二,压实平台与机构责任。

对提供生成式能力的平台、传播渠道以及金融机构等重点主体,建立更清晰的风险评估、模型测试、应急处置与信息披露要求,把“事后追责”前移到“事前防范”。

其三,提升公众数字素养与反诈能力。

针对老年人、青少年等重点人群加强教育与提示,形成“技术防护+制度约束+社会共治”的合力。

其四,加强国际沟通与规则协调。

人工智能具有跨境性,关键标准、风险通报与执法协作需要更高水平的国际协同,避免监管套利和风险外溢。

前景——创新仍是主航道,关键在于把握节奏与边界。

巴菲特此前就曾表示,人工智能既可能显著造福人类,也可能带来同样巨大的危害。

当前,各国在产业升级、公共服务、科研创新等领域积极布局,人工智能在提升效率、辅助医疗、优化生产等方面的价值日益显现,但“技术能力提升”与“风险控制能力提升”必须同频共振。

值得关注的是,巴菲特在谈及投资时强调“只做完全理解的事”,并透露企业保持较高现金储备、宁愿等待估值回归合理区间的谨慎态度。

这一思路也为技术治理提供了启示:面对高不确定性领域,既要鼓励探索,也要保留安全余量与纠偏空间,通过可验证、可回退的机制减少系统性风险。

作为见证近一个世纪经济变迁的智者,巴菲特的警示不仅关乎技术风险,更触及人类文明发展的深层命题。

在科技日新月异的今天,如何平衡创新与安全、效率与伦理,已成为全球共同面临的重大课题。

这位投资大师的远见卓识,既是对当下的警醒,也是对未来的思考,值得各国政策制定者、科技企业和全社会认真对待。