近期,AI智能体领域爆出了不少惊人新闻,Manus和ChatGPT Agent更是如此,这让AI圈一片哗然。然而,最令人瞩目的话题绝对是AI智能体。就像Perplexity Comet能自己订票,Claude Code能写代码,还有一夜成名的Manus,它们不再是只会聊天的工具,而是能直接干活的“数字实习生”。但是,这些智能体在后台自主运行时究竟在做什么?它们安不安全?会不会把我们带入困境?MIT、剑桥大学还有斯坦福等世界顶尖学府的专家们联合发布了一份《2025年AI智能体指数报告》,对30款全球领先的AI智能体进行了彻底检查。我花了不少时间研读了这个39页的干货报告,帮大家总结了一些关键信息。首先来看市场现状:AI智能体正处于快速发展阶段。报告明确指出,AI智能体已经从实验室走进了寻常百姓家。搜索量和学术论文数量急剧增长,McKinsey预测到2030年,AI智能体将创造出高达2.9万亿美元的经济价值。这些小家伙们正在掀起一股热潮。根据报告划分,现在的AI智能体分为三类:聊天增强型、浏览器横行型还有企业打工人型。聊天增强型包括ChatGPT Agent和Manus AI,它们既能聊天又能帮你处理各种任务。浏览器横行型如Perplexity Comet,可以直接控制你的浏览器完成下单、填表等操作。而企业打工人型如微软和ServiceNow推出的产品,能处理CRM、HR还有IT等业务流程。然而,繁荣背后隐藏着不少问题。开发者们对智能体的安全性闭口不谈。报告发现几乎所有AI智能体都依赖于OpenAI的GPT、Anthropic的Claude或者Google的Gemini模型。这就像给所有机器安装了同一个心脏,一旦这些公司调整政策或涨价,整个生态系统就会受到影响。 报告中还提到了198个信息盲区。在1350个信息点中,有198个标注为“找不到任何信息”,主要集中在安全评估和生态交互上。只有少数几家公司如ChatGPT Agent还有Claude Code发布了安全性评估报告。其余大部分公司要么不知道自家产品是否安全,要么知道了也不告诉用户。浏览器类别的5款产品已经被曝出有安全问题。比如恶意网页可以通过提示词注入操控Perplexity Comet窃取数据。 不同类型的AI智能体自主权差异很大。聊天类别的ChatGPT在付款前还会询问用户意见。但浏览器类别的Perplexity Comet则会完全自主行动直到完成任务或者出现问题才会反馈给用户。这种放养模式风险很高。 好在问题已经被发现并开始寻求解决办法了。比如OpenAI开始为ChatGPT Agent网络请求添加数字签名,这有助于追踪和验证行为来源。然而不少浏览器类别的产品无视网站禁令并伪装成真人访问引发了和内容平台之间的冲突。 这个报告像一面镜子反映出AI智能体领域最真实的一面:技术飞速发展但安全监管存在巨大漏洞。对普通人来说这意味着什么?我们应该拥抱新技术同时保持警惕:不要轻易把银行卡、家庭住址等重要信息交给它们去管理;关注那些透明且愿意公开安全评估的公司;支持那些真诚做实事的企业。 2025年AI智能体这趟高速列车已经出发了。我们不能错过这次机会但也需要系好安全带时刻关注前方路况。毕竟让一个完全封闭的“黑箱”替你掌舵这段旅程你敢安心入睡吗?