谷歌deepmind、google deepmind、xai都没及时回应

在美国,像Facebook旗下的Meta、OpenAI、Anthropic、Google DeepMind、DeepSeek、xAI这些掌握着强大技术的公司,已经成为制造不受任何监管的超级武器的行业。麻省理工学院教授马克斯·泰格马克就指出,正是因为这种不受约束的环境,才让他们陷入了只顾竞争、忽视安全的恶性循环。 硅谷的非营利组织未来生活研究所在周三发布了一份评估报告,揭露了一个残酷的现实:这些公司根本没有太多动力去优先保护人类安全。在这项名为“人工智能安全指数”的调查中,全部参与评分的公司在“生存安全”类别上都低于平均线。 这项报告一共评估了35个指标,涵盖了生存安全、风险评估和信息共享等六大类。通过收集公开材料和公司在调查中的回应,八位人工智能专家最终给每个公司打出了分数。在这一过程中,没有任何一家公司拿出了可信的计划来防止AGI或超智能失控带来的灾难性后果。 最高的总分只有C级,旧金山的两家公司——生产ChatGPT的OpenAI和以Claude闻名的Anthropic——拿到了这个成绩。谷歌的DeepMind也给了C级。位于门洛帕克的Meta和埃隆·马斯克的xAI只拿到了D级。来自中国的Z.ai、DeepSeek以及阿里云更是只拿到了D-。 对于自己的安全工作,OpenAI在声明中表示他们把安全视为核心内容,“我们在前沿安全研究上投入了大量资源”。谷歌DeepMind也宣称采取了严格的、以科学为基础的方法来保障安全。 不过xAI和Meta就显得不那么积极,该研究所指出这两家公司虽然有风险管理框架,但缺乏具体的监控和控制措施。同样缺乏公开生存安全战略文件的还有DeepSeek、Z.ai和阿里云。 当被问及更多评论时,Meta、Z.ai、DeepSeek、阿里巴巴和Anthropic都没有及时回应。xAI则直接回怼“传统媒体在说谎”,代表马斯克的律师也没有立即回复。 针对这种情况,泰格马克忧心忡忡地表示,“是的,我们面临着大问题”,但他同时认为只要对人工智能公司制定具有约束力的标准就能解决。政府虽然出台了一些法案试图加强监管,比如加州州长加文·纽森签署的SB 53要求企业分享安全协议并报告网络攻击事件,但这仍被认为是迈出的一小步。 咨询公司Enderle Group的首席分析师Rob Enderle认为这份报告是解决监管不足的一个有趣方式,“但这也面临一些挑战”。他直言不确定美国政府是否有能力在这个时候制定周全的法规,“这可能导致这些法规带来的伤害大于好处”。