宅中地 - 每日更新
宅中地 - 每日更新

贊助商廣告

X

在AMD銳龍AI Max+處理器和Radeon GPU上本地運行OpenClaw

2026年03月18日 首頁 » 熱門科技
在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

多年來,強大的AI模型主要部署在雲端,通過遠程API和服務進行訪問。但隨著本地硬體性能的提升以及推理軟體棧的優化正開始改變這種模式,使得直接在個人系統上運行高性能的大語言模型成為可能。這一轉變也催生了一個被稱為"智能體電腦(Agent Computer)"的新計算類別。與傳統個人電腦不同,這類設備的主要用戶不再是人類,而是AI智能體。

隨著AMD銳龍AI Max+ 這類平台的出現,像Qwen 3.5 122B這樣的模型也可以在本地實現高性能運行,同時支持單智能體和多智能體工作負載,這標誌著AI正從過去依賴雲端的模式,轉向如今更強大的本地AI系統。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

雖然運行和安裝OpenClaw有多種方式,但對於Windows用戶來說,這些方法可能存在一些取捨或功能缺失。通過WSL2部署OpenClaw的AMD最佳已知配置(BKC)提供了一種更簡化的方法,使用戶無需離開熟悉的Windows環境,就能直接在AMD硬體上運行本地AI智能體和大語言模型工作負載。該配置通過使用基於llama.cpp的LM Studio,實現了完全本地化的LLM部署,並通過本地embedding提供Memory.md的功能支持。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

瀏覽器控制運行在WSL2環境中,可實現自動化工作流程和智能體交互。整個環境可在一小時內完成配置,專為嘗試個人AI智能體和本地開發工作流程的早期用戶而設計。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw
在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

RyzenClaw評分卡展示了搭載128GB統一記憶體的AMD銳龍 AI Max+平台,能夠通過OpenClaw高效運行接近雲端質量的AI智能體工作負載。在運行Qwen 3.5 35B A3B模型時,系統可實現約45 tokens/s 的生成速度,處理10,000個輸入token僅需約19.5秒。該平台支持最高26萬 token 的最大上下文窗口,並且最多可同時運行6個智能體。這使得在消費級硬體上進行可擴展的本地AI實驗(例如Agent swarm/多智能體協作)成為可能,同時仍能保持良好的響應速度。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

RadeonClaw評分卡展示了在AMD Radeon AI PRO R9700顯卡上運行相同工作負載時所帶來的性能提升。在運行Qwen 3.5 35B A3B 模型時,系統可實現約120 tokens/s 的生成速度,處理10,000個輸入token僅需約4.4秒。該配置支持19萬token的上下文窗口,並且最多可同時運行2個智能體。這一結果顯著提升了本地智能體推理的響應速度。

如何在AMD銳龍 AI Max+處理器或Radeon顯卡上設置並運行OpenClaw

接下來,我們將一步步演示如何搭建該環境。

預計跟隨步驟完成安裝所需時間:約1小時。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

驅動更新與AMD可變顯存(Variable Graphics Memory)設置

1、下載並安裝最新的AMD Software: Adrenalin Edition驅動程序。

2、擁有AMD Radeon顯卡的用戶請跳過此步驟。對於基於AMD銳龍AI Max+128GB平台的用戶:在桌面任意位置右鍵 → AMD Software: Adrenalin Edition → Performance(性能) → Tuning(調整) → Variable Graphics Memory(可變顯存) → 設置為96GB並重啟。

LM Studio安裝與正確配置

初始設置

1、下載LM Studio

2、啟動LM Studio,在模型下載提示處點擊「Skip for now(暫時跳過)"。

3、勾選"Developer Mode(開發者模式)"和"Start LLM service login(登錄時啟動LLM服務)"。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

1、點擊"Model Search(模型搜索)"圖標(機器人搭配放大鏡的符號)。

2、在左側選擇 「Qwen 3.5 35B A3B」,然後在右側點擊下載,等待下載完成。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

1、按下Ctrl+L調出模型選擇界面。勾選"Manually choose load model parameters(手動選擇加載模型參數)",然後點擊對應的大語言模型以調出加載選項。

2、勾選"remember settings(記住設置)"並勾選"show advanced setting(顯示高級設置)"。

3、將上下文窗口設置為190000,並確保GPU卸載已設為最大。

4、取消勾選"嘗試使用nmap"。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw
在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

1、確保已啟用"Flash Attention"。

2、關於"最大並發預測"和"統一KV緩存"的詳細說明,請參閱上文中的並發智能體邏輯。目前,我們將"最大並發預測"設置為6,並保持勾選"統一KV緩存"。

3、點擊加載

4、如果模型未在列表中顯示,您可能需要再次從下拉菜單中選擇該模型。

5、啟動聊天窗口,並發送消息"test",以確認大語言模型是否正常工作。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

伺服器設置與崩潰防護加固

1、請按Ctrl+2切換到開發者標籤頁。

2、點擊"status: Stopped"前的開關以啟動伺服器。

3、點擊 「Server Settings(伺服器設置)」。

4、允許 「Serve on Local Network(在本地網路上提供服務)」。此時系統會提示您進行權限確認。

5、取消勾選 「Auto unload unused JIT loaded models(自動卸載未使用的 JIT 加載模型)」 和 「Only keep last JIT loaded model(僅保留最後加載的 JIT 模型)」,然後點擊任意位置關閉設置窗口。

6、點擊Load Model(加載模型),選擇Qwen 35B A3B。此前配置的設置應會自動填充,然後點擊 「Load(加載)」。

7、模型加載完成後,狀態將顯示為「READY」。

8、保持此窗口打開,然後繼續下一步操作。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

安裝WSL2及OpenClaw核心組件

以管理員身份打開PowerShell窗口。

安裝Ubuntu(如果這是您第一次運行此命令,系統將會先安裝WSL):

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw
在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

創建用戶名和密碼,然後運行更新。系統可能會提示您輸入密碼,並按 Y 繼續。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw
在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

啟用Systemd

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw
在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

打開第二個PowerShell 窗口(以管理員身份),然後運行以下命令:

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw
在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

返回到原先的PowerShell 窗口(從現在起保持在此窗口),然後運行:

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw
在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

通過執行以下命令驗證systemd是否正在運行:

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw
在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

如果收到"systemd"作為響應,您可以繼續執行並將其添加到「PATH路徑」:

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw
在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

安裝Homebrew(某些功能需要此步驟)。系統可能會提示您輸入密碼並按回車鍵確認:

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

配置Shell環境

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

安裝build-essentials。系統可能會提示您輸入密碼,並按 Y 繼續。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw
在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

安裝OpenClaw

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw
在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

配置OpenClaw以使用本地大語言模型

閱讀安全警告後,按左箭頭鍵切換至"是"選項,然後按回車鍵繼續。再次按回車鍵選擇「Quick Start(快速開始)"。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

按向下箭頭鍵滾動至「Custom Provider自定義提供商",然後按回車鍵確認。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

再次打開LM Studio——注意右側顯示的「API Usage「部分。複製「Local server is reachable at」下方的地址,然後將其粘貼到PowerShell 窗口中(提示:當PowerShell窗口處於焦點時,右鍵即可自動粘貼剪貼板內容)。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

在 「Paste API Key Now(立即粘貼API密鑰)」提示下按 Enter,然後輸入「Imstudio」 ——即使非必填項,也請勿留空。

選擇「Anthropic-compatible API(兼容Anthropic的API)」 並按回車。然後回到LM Studio的API Usage部分,準確複製模型名稱,將其粘貼到Model ID輸入框中,並按回車。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

此時OpenClaw將驗證連接並顯示"Verification Successful(驗證成功)",隨後提示您輸入「Endpoint ID(端點

ID)「和」Model Alias(模型別名)「。請依次填寫這兩項:

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

此時,您將進入配置與Bot的通信渠道環節。在繼續操作之前,請確保您已準備好Token和授權資訊。本示例將以Discord為例進行配置,要完成Discord設置,您需要準備:1) 認證 Token,2) 已邀請到Discord的Discord Bot(應用)。請立即參照OpenClaw的Discord配置指南完成此步驟,指南地址:Discord-OpenClaw

提供Discord認證 Token,然後選擇 Yes 以配置Discord通道訪問。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

請按指定格式輸入您的Discord伺服器名稱和頻道名稱,例如:ClawOffice/#general,然後按回車鍵。如果配置成功,您將看到「Verification Successful(驗證成功)「的資訊,並且頻道ID會被自動解析:

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

現在我們需要配置Web Search API(網路搜索API)。您可以選擇跳過此步驟,或註冊像Brave這樣的API服務——只需5美元即可獲得大量調用額度。在本示例中,我們將通過複製API密鑰來配置Brave搜索API:

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

現在我們將選擇一些初始功能:himalaya、blogwatcher、nanopdf和clawhub(如果在列表中找不到clawhub也別擔心——可以稍後再配置)。如果系統提示,請選擇npm並繼續安裝。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

如果您希望使用雲端訪問,請立即添加相關資訊;否則,對所有API Key請求選擇 NO。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

在Hooks中選擇boot-md、command-logger和session-memory,然後按回車鍵確認。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

孵化您的 Clawie!

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

配置上下文(Context)、Agents(智能體)以及用於Memory的本地Embedding

發送以下提示詞(Prompt):

Lets do some house-keeping: :You are running locally using LM Studio and a Qwen model with 190000 context. please update the openclaw.json file with max context and 190000 max token . Also please set the max agent count to 2 and the max sub-agent count to 2 as well. When done, restart the geteway.

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw
在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

等待網關(Gateway)重新連接並顯示為Idle(空閒)狀態。此時模型會停止響應。在TUI 中輸入 /new,終端中將顯示正確的上下文限制(Context Limit)。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

接下來,我們需要啟用本地Embedding模型以支持memory.md的功能。為此,請發送以下提示詞(Prompt):

Perfect! that is all done. Lets setup and validate memory.md now. Please read the docs. Specifically, we need to configure the embedding model - which by default is cloud based. We need to configure this to the local embedding model - which includes the memorysearch parameter in openclaw.json and should trigger a download of the local embeddding model. Once done - please validate its working along with the entire memory.md system.

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

當Gateway(網關)重啟後,模型本身無法感知這一重啟,因此只需再次向模型發送提示 「the gateway has restarted」。隨後OpenClaw會下載本地 Embedding 模型並完成相應配置。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw
在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

您應該會看到確認資訊,表明 Memory 系統已完全正常運行。

可選步驟:如果您在開始時未能安裝clawhub技能,可以現在進行安裝;否則請跳過此步驟。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

完成Discord配對

要完成Discord配對,只需向你的機器人發送私信,它就會回復一個配對代碼以及在已激活WSL的PowerShell 窗口中粘貼的完整命令:

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

啟用OpenClaw使用Chrome(可見模式)。

我們現在將在WSL2中設置瀏覽器使用(用戶可見模式)。請打開一個新的PowerShell窗口:

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

運行以下命令,在您的工作區中安裝瀏覽器擴展:

openclaw browser extension install

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

運行apt更新

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw
在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

下載並安裝Chrome瀏覽器:

wget https://dl.google.com/linux/direct/google-chrome-stable_current_amd64.deb

sudo apt install ./google-chrome-stable_current_amd64.deb

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

運行以下命令以獲取Dashboard Token並打開瀏覽器:

openclaw dashboard

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

這將首次打開瀏覽器。請接受並選擇是否登錄賬號。完成後,請保持該瀏覽器窗口處於打開狀態。

返回到PowerShell窗口,複製Dashboard Token(即 「#token=」 後面的那一部分)。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

進入Extensions(擴展程序)→ 打開Developer Mode(開發者模式)→ 點擊Load Unpacked(加載已解壓的擴展程序)。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

按Ctrl + H以顯示以點(.)開頭的隱藏目錄,然後點擊 .openclaw → browser → chrome extension,進入該文件夾後點擊 Open(打開)。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

隨後會出現一個頁面,要求輸入Token。請輸入該Token 並點擊 Save(保存)。如果配置成功,頁面會顯示 「Relay reachable and authenticated(中繼已連接並完成認證)「。

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

點擊工具欄中的擴展程序圖標(拼圖形狀),然後點擊 OpenClaw Browser Relay 將其開啟。開啟後,您將看到提示資訊:「OpenClaw Browser Relay started debugging this browser(OpenClaw Browser Relay 已開始調試該瀏覽器)。「

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

現在請在TUI中發送以下提示詞(Prompt):

I just configured you with the chrome browser relay extension, can you verify its working by navigating to amd.com

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

您的OpenClaw智能體現在擁有一個可供使用的瀏覽器(您可以實時觀察)!

在AMD銳龍AIMax處理器和RadeonGPU上本地運行OpenClaw

至此,一切準備完成,盡情體驗吧!

宅中地 - Facebook 分享 宅中地 - Twitter 分享 宅中地 - Whatsapp 分享 宅中地 - Line 分享
相關內容
Copyright ©2026 | 服務條款 | DMCA | 聯絡我們
宅中地 - 每日更新