Anthropic放出了Claude Code的自动模式,这让AI自己动手写代码的能力又上了一个台阶,只不过安全问题现在变成了核心。这个新功能是Anthropic推出来的,为了帮程序员解决那个老难题:用AI干活快是快了,可又怕它乱来不安全。 现在这个功能是研究预览版,先给团队用用看,后面再慢慢推给企业版和用API的朋友。核心就是搞了一套双重决策机制:AI先看一眼操作安不安全,如果没问题就自己干,不用人每次都去点确认。系统里头还专门安了一层过滤网,会自动拦住有风险的指令。 这主要就是防黑客搞提示注入攻击的。以前的版本是把所有决定权全交给AI处理的,现在通过加一层过滤层,既能保持速度又能管得住风险。这样一来开发者就不用在死死盯着和彻底不管这两个极端中间纠结了,系统会根据风险大小自动决定是不是要去问人。 最近AI编程这块竞争挺激烈的,GitHub、OpenAI那些公司都已经有能自己动手的工具了。Anthropic这次把决策权还给AI了,这意味着企业用的开发工具离全自动化又近了一步。 他们还把之前的Claude Code Review(代码检查)和Dispatch for Cowork(任务分派)连在了一起,打算建一套完整的自主开发流程。 不过有几个关键信息还没说透。Anthropic没说明白那个安全审查层到底是咋算风险等级的,哪些命令会被拦下来也是个谜。 现在这个模式只支持Claude Sonnet 4.6和Opus 4.6这两个模型,而且标签还是研究预览版。要是真想去生产环境用这套东西,模型的兼容性不够和评估标准太模糊就是个大问题了。 为了稳妥起见,Anthropic建议大家在一个隔离的沙盒里先测着玩,模拟真实场景看看稳不稳当。 这个慎重的做法说明咱们的AI工具要想进企业大门,还得把安全可信这关给过了才行。