
多年來,強大的AI模型主要部署在云端,通過遠程API和服務(wù)進行訪問。但隨著本地硬件性能的提升以及推理軟件棧的優(yōu)化正開始改變這種模式,使得直接在個人系統(tǒng)上運行高性能的大語言模型成為可能。這一轉(zhuǎn)變也催生了一個被稱為"智能體計算機(Agent Computer)"的新計算類別。與傳統(tǒng)個人計算機不同,這類設(shè)備的主要用戶不再是人類,而是AI智能體。
隨著AMD銳龍AI Max+ 這類平臺的出現(xiàn),像Qwen 3.5 122B這樣的模型也可以在本地實現(xiàn)高性能運行,同時支持單智能體和多智能體工作負載,這標志著AI正從過去依賴云端的模式,轉(zhuǎn)向如今更強大的本地AI系統(tǒng)。

雖然運行和安裝OpenClaw有多種方式,但對于Windows用戶來說,這些方法可能存在一些取舍或功能缺失。通過WSL2部署OpenClaw的AMD最佳已知配置(BKC)提供了一種更簡化的方法,使用戶無需離開熟悉的Windows環(huán)境,就能直接在AMD硬件上運行本地AI智能體和大語言模型工作負載。該配置通過使用基于llama.cpp的LM Studio,實現(xiàn)了完全本地化的LLM部署,并通過本地embedding提供Memory.md的功能支持。

瀏覽器控制運行在WSL2環(huán)境中,可實現(xiàn)自動化工作流程和智能體交互。整個環(huán)境可在一小時內(nèi)完成配置,專為嘗試個人AI智能體和本地開發(fā)工作流程的早期用戶而設(shè)計。


RyzenClaw評分卡展示了搭載128GB統(tǒng)一內(nèi)存的AMD銳龍 AI Max+平臺,能夠通過OpenClaw高效運行接近云端質(zhì)量的AI智能體工作負載。在運行Qwen 3.5 35B A3B模型時,系統(tǒng)可實現(xiàn)約45 tokens/s 的生成速度,處理10,000個輸入token僅需約19.5秒。該平臺支持最高26萬 token 的最大上下文窗口,并且最多可同時運行6個智能體。這使得在消費級硬件上進行可擴展的本地AI實驗(例如Agent swarm/多智能體協(xié)作)成為可能,同時仍能保持良好的響應(yīng)速度。

RadeonClaw評分卡展示了在AMD Radeon AI PRO R9700顯卡上運行相同工作負載時所帶來的性能提升。在運行Qwen 3.5 35B A3B 模型時,系統(tǒng)可實現(xiàn)約120 tokens/s 的生成速度,處理10,000個輸入token僅需約4.4秒。該配置支持19萬token的上下文窗口,并且最多可同時運行2個智能體。這一結(jié)果顯著提升了本地智能體推理的響應(yīng)速度。
如何在AMD銳龍 AI Max+處理器或Radeon顯卡上設(shè)置并運行OpenClaw
接下來,我們將一步步演示如何搭建該環(huán)境。
預(yù)計跟隨步驟完成安裝所需時間:約1小時。

驅(qū)動更新與AMD可變顯存(Variable Graphics Memory)設(shè)置
LM Studio安裝與正確配置
初始設(shè)置





服務(wù)器設(shè)置與崩潰防護加固

安裝WSL2及OpenClaw核心組件
以管理員身份打開PowerShell窗口。
安裝Ubuntu(如果這是您第一次運行此命令,系統(tǒng)將會先安裝WSL):


創(chuàng)建用戶名和密碼,然后運行更新。系統(tǒng)可能會提示您輸入密碼,并按 Y 繼續(xù)。




打開第二個PowerShell 窗口(以管理員身份),然后運行以下命令:


返回到原先的PowerShell 窗口(從現(xiàn)在起保持在此窗口),然后運行:


通過執(zhí)行以下命令驗證systemd是否正在運行:


如果收到"systemd"作為響應(yīng),您可以繼續(xù)執(zhí)行并將其添加到“PATH路徑”:


安裝Homebrew(某些功能需要此步驟)。系統(tǒng)可能會提示您輸入密碼并按回車鍵確認:

配置Shell環(huán)境

安裝build-essentials。系統(tǒng)可能會提示您輸入密碼,并按 Y 繼續(xù)。


安裝OpenClaw


配置OpenClaw以使用本地大語言模型
閱讀安全警告后,按左箭頭鍵切換至"是"選項,然后按回車鍵繼續(xù)。再次按回車鍵選擇“Quick Start(快速開始)"。

按向下箭頭鍵滾動至“Custom Provider自定義提供商",然后按回車鍵確認。

再次打開LM Studio——注意右側(cè)顯示的“API Usage“部分。復(fù)制“Local server is reachable at”下方的地址,然后將其粘貼到PowerShell 窗口中(提示:當PowerShell窗口處于焦點時,右鍵即可自動粘貼剪貼板內(nèi)容)。

在 “Paste API Key Now(立即粘貼API密鑰)”提示下按 Enter,然后輸入“Imstudio” ——即使非必填項,也請勿留空。
選擇“Anthropic-compatible API(兼容Anthropic的API)” 并按回車。然后回到LM Studio的API Usage部分,準確復(fù)制模型名稱,將其粘貼到Model ID輸入框中,并按回車。

此時OpenClaw將驗證連接并顯示"Verification Successful(驗證成功)",隨后提示您輸入“Endpoint ID(端點
ID)“和”Model Alias(模型別名)“。請依次填寫這兩項:

此時,您將進入配置與Bot的通信渠道環(huán)節(jié)。在繼續(xù)操作之前,請確保您已準備好Token和授權(quán)信息。本示例將以Discord為例進行配置,要完成Discord設(shè)置,您需要準備:1) 認證 Token,2) 已邀請到Discord的Discord Bot(應(yīng)用)。請立即參照OpenClaw的Discord配置指南完成此步驟,指南地址:Discord-OpenClaw
提供Discord認證 Token,然后選擇 Yes 以配置Discord通道訪問。

請按指定格式輸入您的Discord服務(wù)器名稱和頻道名稱,例如:ClawOffice/#general,然后按回車鍵。如果配置成功,您將看到“Verification Successful(驗證成功)“的信息,并且頻道ID會被自動解析:

現(xiàn)在我們需要配置Web Search API(網(wǎng)絡(luò)搜索API)。您可以選擇跳過此步驟,或注冊像Brave這樣的API服務(wù)——只需5美元(約35元人民幣)即可獲得大量調(diào)用額度。在本示例中,我們將通過復(fù)制API密鑰來配置Brave搜索API:

現(xiàn)在我們將選擇一些初始功能:himalaya、blogwatcher、nanopdf和clawhub(如果在列表中找不到clawhub也別擔心——可以稍后再配置)。如果系統(tǒng)提示,請選擇npm并繼續(xù)安裝。

如果您希望使用云端訪問,請立即添加相關(guān)信息;否則,對所有API Key請求選擇 NO。

在Hooks中選擇boot-md、command-logger和session-memory,然后按回車鍵確認。

孵化您的 Clawie!

配置上下文(Context)、Agents(智能體)以及用于Memory的本地Embedding
發(fā)送以下提示詞(Prompt):
Lets do some house-keeping: :You are running locally using LM Studio and a Qwen model with 190000 context. please update the openclaw.json file with max context and 190000 max token . Also please set the max agent count to 2 and the max sub-agent count to 2 as well. When done, restart the geteway.


等待網(wǎng)關(guān)(Gateway)重新連接并顯示為Idle(空閑)狀態(tài)。此時模型會停止響應(yīng)。在TUI 中輸入 /new,終端中將顯示正確的上下文限制(Context Limit)。

接下來,我們需要啟用本地Embedding模型以支持memory.md的功能。為此,請發(fā)送以下提示詞(Prompt):
Perfect! that is all done. Lets setup and validate memory.md now. Please read the docs. Specifically, we need to configure the embedding model - which by default is cloud based. We need to configure this to the local embedding model - which includes the memorysearch parameter in openclaw.json and should trigger a download of the local embeddding model. Once done - please validate its working along with the entire memory.md system.

當Gateway(網(wǎng)關(guān))重啟后,模型本身無法感知這一重啟,因此只需再次向模型發(fā)送提示 “the gateway has restarted”。隨后OpenClaw會下載本地 Embedding 模型并完成相應(yīng)配置。


您應(yīng)該會看到確認信息,表明 Memory 系統(tǒng)已完全正常運行。
可選步驟:如果您在開始時未能安裝clawhub技能,可以現(xiàn)在進行安裝;否則請?zhí)^此步驟。

完成Discord配對
要完成Discord配對,只需向你的機器人發(fā)送私信,它就會回復(fù)一個配對代碼以及在已激活WSL的PowerShell 窗口中粘貼的完整命令:

啟用OpenClaw使用Chrome(可見模式)。
我們現(xiàn)在將在WSL2中設(shè)置瀏覽器使用(用戶可見模式)。請打開一個新的PowerShell窗口:

運行以下命令,在您的工作區(qū)中安裝瀏覽器擴展:
openclaw browser extension install

運行apt更新

下載并安裝Chrome瀏覽器:
wget https://dl.google.com/linux/direct/google-chrome-stable_current_amd64.deb
sudo apt install ./google-chrome-stable_current_amd64.deb

運行以下命令以獲取Dashboard Token并打開瀏覽器:
openclaw dashboard

這將首次打開瀏覽器。請接受并選擇是否登錄賬號。完成后,請保持該瀏覽器窗口處于打開狀態(tài)。
返回到PowerShell窗口,復(fù)制Dashboard Token(即 “#token=” 后面的那一部分)。

進入Extensions(擴展程序)→ 打開Developer Mode(開發(fā)者模式)→ 點擊Load Unpacked(加載已解壓的擴展程序)。

按Ctrl + H以顯示以點(.)開頭的隱藏目錄,然后點擊 .openclaw → browser → chrome extension,進入該文件夾后點擊 Open(打開)。

隨后會出現(xiàn)一個頁面,要求輸入Token。請輸入該Token 并點擊 Save(保存)。如果配置成功,頁面會顯示 “Relay reachable and authenticated(中繼已連接并完成認證)“。

點擊工具欄中的擴展程序圖標(拼圖形狀),然后點擊 OpenClaw Browser Relay 將其開啟。開啟后,您將看到提示信息:“OpenClaw Browser Relay started debugging this browser(OpenClaw Browser Relay 已開始調(diào)試該瀏覽器)。“

現(xiàn)在請在TUI中發(fā)送以下提示詞(Prompt):
I just configured you with the chrome browser relay extension, can you verify its working by navigating to amd.com

您的OpenClaw智能體現(xiàn)在擁有一個可供使用的瀏覽器(您可以實時觀察)!

至此,一切準備完成,盡情體驗吧!