智能体的浪潮已经挡不住了以后我们肯定得跟这些“数字同事”一块儿过日子。

最近那个“养龙虾”的事儿闹得挺大,卸不卸载这事还挺让人纠结。你看那OpenClaw多火,直接就是给企业微信、飞书下个指令,它就帮你在电脑上干活,大家都喊它“24小时的数字同事”。可这下也出乱子了,有人一觉醒来发现邮箱里几百封不该删的邮件没了,还有人半夜收到了1.2万元的Token账单。这下好了,“上门卸载OpenClaw”居然在二手平台上成了一门生意。这事儿真把难题抛给咱们了:想让AI多干点活给咱效率,又得保住隐私,这怎么平衡? 效率诱惑确实大,“把重复劳动交给机器”成了共识。从OpenClaw到Claude Code,这些智能体的功能越来越强,不光是被动回复问题,简直成了主动干活的“代理”。云安全联盟查了一下,现在有40%的公司已经把智能体用在生产线上了,还有31%的还在试呢。厂商推得也挺猛,你看那视频底下有人评论:“算力和模型厂商拼命推,这玩意儿太费Token了,装的人越多他们越赚钱。” 可当大家兴高采烈签这份“效率契约”的时候,风险也来了。3月10日国家互联网应急中心就发了个提示,说有四大严重风险:提示词注入能让密钥泄露、误操作可能把核心数据全删掉、插件里可能有木马、还有漏洞能让人远程控制电脑。更让人想不通的是中国科学院信息工程研究所的一篇论文指出的问题:他们做了个实验发现六种主流大模型平均泄露信息的比例高达62.11%。论文里还提到个新词叫“马赛克效应”。 就是说单个工具返回的信息看着都不敏感,但智能体一组合起来就能拼出敏感结论。比如你让它处理周报,它从银行账单、日历还有法律咨询记录里一看,竟然推断出你去竞争对手那面试了。这就说明隐私泄露不一定是出故障了,有时候就是它“正常运作”的副作用。 两会期间全国政协常委张连起也提了个醒:得提防那种“比谁权限更宽、比谁功能更激进”的内卷式竞争。为了抢市场有些厂商会诱导用户给超出必要的权限。 为啥会这样呢?其实是大家的安全意识和手段都还跟不上。调查显示只有18%的人对现在的身份管理系统管理智能体的能力有信心。大多数公司还用的是给人设计的那种方式:静态API密钥或者用户名密码。 你想啊,要是成千上万个智能体都以“员工”的身份进了系统,咱们还用的是“人类时代”的门禁卡,这风险得多大啊。面对这种情况不能因为怕危险就完全不用了。 技术层面上得赶紧把这些终端智能体纳入监管里去。最好能设个“双重授权”的原则——不管是在图形界面上还是用API接口操作关键步骤都得要用户明确点头确认。专家还说可以建个高标准的隐私防护体系。 制度层面上“十五五”规划里已经提了要深化网络空间安全综合治理和个人信息保护了。关键是要把这些顶层设计细化成专门针对智能体的规则。比如有的企业把宝贵的数据喂给智能体吃。 意识层面上普通用户也得清醒点别被这股热潮卷进去了。要守护好自己的隐私底线。 在这个技术爆炸的时代跟不上迭代速度很正常。与其天天担心自己会不会被AI替代不如想想自己有啥不可替代性。 最重要的是装任何一个智能体之前多问一句“它真的需要这些权限吗?”这可能就是保护隐私的第一防线。 智能体的浪潮已经挡不住了以后我们肯定得跟这些“数字同事”一块儿过日子。但人类的文明从来不是盲目崇拜工具而是在每次技术大跃进的时候懂得守住自己那份不可让渡的尊严和自主权。(作者是同济大学电子与信息工程学院的教授、博士生导师)