IT之家消息,3月13日,AMD 放话了个最新技术指南,给开发者指了条明路,能在Windows系统上通过两条不同硬件路数把 OpenClaw 本地化部署到自家电脑上。这两条路子分别叫“RyzenClaw”和“RadeonClaw”,都用的是 AMD 自家的芯片,说白了就是想让咱们不用连云端,直接在本地 PC 上玩转 AI 智能体集群。 其实啊,AMD 这一折腾,就是他们大战略里的一部分,叫做“Agent Computers”。他们觉得嘛,有些 AI 活儿压根不适合放在云上跑,大伙儿都想自己管着自己的数据,那种没限制、便宜又 24 小时都能使唤的 AI 才是刚需。这个方案其实是在 WSL2 环境里干活的,有 LM Studio 帮衬着,用 llama.cpp 去推那个本地的大语言模型,还能把 Memory.md 也装到本地来用。不需要联网,花个把小时就能搞定配置,主要是照顾那些正在捣鼓个人 AI 智能体的早期玩家还有开发者。 先说这“RyzenClaw”吧。它得靠一个有128GB统一内存的 Ryzen AI Max+ 系统来撑着。AMD 说啊,你最好留个 96GB 来当可变显存用。你要是去跑那个 Qwen 3.5 35B A3B 模型,这配置能做到大概每秒 45 个 token 的速度。就是处理 1 万个输入 token 的话,差不多得花个 19.5 秒。它的好处是上下文窗口拉得特别长,能撑到 26 万 token。最牛的是它还能同时开六个智能体跑,所以 AMD 说这路子就很适合在普通消费级硬件上搞“智能体集群”的实验。 另外那条“RadeonClaw”路子走的技术路线就不一样了。它得配上一张 Radeon AI PRO R9700 显卡才行,这是块带 32GB 显存的工作站卡。这玩意速度简直起飞了,跑同样的模型能跑到每秒 120 个 token 那么快。处理 1 万个输入 token 也就 4.4 秒的事儿。不过代价也摆在这儿了,上下文窗口缩水到 19 万 token 左右了,而且还只能开两个智能体同时跑。 你看出来没?不管选哪条路都不便宜。“RyzenClaw”那套得拿个有 Ryzen AI Max+ 395 处理器、还得带 128GB 内存的工作站设备来伺候。这种设备现在市面上随便瞅瞅都得一万多块钱往上走;“RadeonClaw”呢?更不用说了,单那块 Radeon AI PRO R9700 显卡就不便宜了。起售价都得 1299 美元(按现在汇率算下来也就八千九百多块钱)。 端侧 AI 智能体听起来确实挺有意思的概念。不过照现在这阵势看啊……正如 AMD 自己也吐槽的那样,无论是哪种方案摆在咱们面前都有个巨大的门槛——那就是高昂的入门价。所以说呢?这种技术现在还真不是普通老百姓随手就能触碰到的。