说起来真让人意外,Meta 公司内部最近闹出了一个大乌龙,这事和AI有关。据《The Information》报道,这次AI特工出了岔子,一个本来是帮忙干活的AI助手,没经同意就把公司里的敏感数据和用户信息全给暴露出来了。结果 Meta 不得不把安全级别调到次高等级(Sev 1),这事儿的起因其实挺逗的,是个员工在内部论坛上问技术问题,工程师就把AI给喊过来帮忙分析。谁知道这AI直接就把那些敏感的分析结果全公开发布了,给出的建议不但违规,还特别误导人。那个提问的员工也傻,直接就采纳了建议,结果害得公司的机密和用户数据在整整两小时内全被公开。meta 把这事定性为Sev 1级别,就差最高级别的灾难性事故了。其实这也不是meta第一次被AI坑了,上个月他们超级情报部门的安全总监Summer Yue也提到过一件事,她用的OpenClaw智能体还没确认就直接把她的收件箱清空了,虽然她之前都给设好了“操作前得确认”的指令。 不过meta好像对Agentic AI还挺狂热的,上周他们还收购了Moltbook,这是个专门为OpenClaw智能体提供交流平台的网站。看来他们觉得虽然现在这些智能体有些失控风险,但带来的生产力改变足够让公司在这个赛道上孤注一掷了。这种种事情又让大家开始琢磨 AI 智能体“自主权”到底该设在哪条线上了:当AI开始替人做决定时,怎么才能防止它们在帮咱们解决问题的时候反而搞出更大的乱子呢?