網易首頁 > 網易號 > 正文 申請入駐

無限Tokens!OpenClaw的最佳硬件拍檔:AMD銳龍AI Max+ 395平臺

0
分享至



最近,當OpenAI、谷歌、DeepSeek、阿里巴巴、騰訊和智譜等公司還在激烈角逐大模型的時候,當AI開發者和用戶還在搗鼓智能體、Skills的時候,一款名為OpenClaw的AI助手突然面世并火爆出圈。OpenClaw一時間成為歷史上增長最快的開源項目之一,那么OpenClaw到底是什么?它的最佳硬件拍檔是誰?

OpenClaw是什么?



簡單來講,OpenClaw是一款在本地或自托管環境運行的開源AI助手,它是一款自主智能體,可以通過大模型執行任務,主要的用戶界面是各類社交聊天平臺。OpenClaw可以部署在macOS、Windows或者Linux平臺,接入大模型之后,用戶可以通過WhatsApp、Telegram、Slack、Discord、iMessage、Signal和飛書等社交工具與它交互、對話。

它除了能夠像大模型那樣回答問題,它還可以執行Shell指令、控制你的瀏覽器、讀取或者寫入文件、管理你的日程,甚至發送電子郵件、打開特定的應用程序等,這些都由你與OpenClaw溝通時所發的文字消息觸發。



因此總體來講,如果你在部署OpenClaw的設備上給它足夠的權限,那么它可以在你的指示下像人類一樣操控電腦。正因如此,OpenClaw才被稱為真正的“賈維斯”,也正因如此,OpenClaw團隊會在大家部署OpenClaw的時候彈出安全風險通知。眾多開發者也建議用戶將其部署在備用PC上來體驗,并時刻注意安全風險。



有人將OpenClaw連接到現實世界,直接讓它控制燒洗澡水的鍋爐,定時并根據天氣情況來燒熱水,避免冬天沒有熱水洗澡。更有甚者,還有很多人通過OpenClaw來炒股、寫自媒體文章和運營社群等。不少公司還嘗試將OpenClaw作為內部的“公司助手”,接在各類SaaS和數據系統上做自動化。

部署OpenClaw需要哪些硬件?



我們如果想要體驗OpenClaw,應該關心的重點是思考用什么大模型服務來接入OpenClaw(畢竟OpenClaw本身并不是大模型)。究竟是接入在線的云端大模型,還是接入本地部署的大模型?

使用云端大模型的最大缺點在于高昂的費用。因為在這個過程中,我們需要通過API接入使用云端大模型,OpenAI、谷歌等大模型提供商都是按Token數量收費,再加上OpenClaw的強大表現,自然會花費大量Token,輸入百萬token需要5美元,輸出百萬token又得25美元。如果是企業客戶使用,那么Token費用可能會達到天價,這不是一般的初創團隊、中小企業能承受的,長期使用本地部署顯得勢在必行。



另外,使用云端大模型還有隱私和安全方面的重大隱患。我們知道OpenClaw允許智能體在本機執行Shell、讀寫文件或者調用腳本,一旦通過云端大模型做“思考”和決策,攻擊者就可以通過提示詞注入或惡意數據,遠程誘導大模型下指令,讓OpenClaw在你的電腦上執行危險操作。

此外,為了讓云端大模型“理解上下文”,OpenClaw可能還會把聊天記錄、文件片段甚至密碼提示、聊天歷史等內容打包發給外部模型服務,這些內容一旦進入云端就受制于對方的隱私策略、日志策略和潛在的數據濫用風險。試想一下,如果你是公司老板,你愿不愿意將自家公司的核心數據暴露出去?

況且,接入云端大模型必然還會帶來網絡延遲和服務穩定性的問題,智能體可能在做一些操作時因為網絡抖動、API限流而中斷,造成半成品操作或“中途停手”的異常狀態。由于大模型輸出具有隨機性和不可預期性,同樣的提示詞、同樣的環境可能產生不同的操作路徑,如果因網絡問題導致中斷,這在“系統級自動化”場景里意味著難以復現和回歸測試,這對企業用戶來講得不償失。

OpenClaw的最佳硬件拍檔:AMD銳龍AI Max+ 395平臺

相對于接入云端大模型,接入本地大模型對企業用戶來講才是最佳選擇。這基本上就是把OpenClaw從“云端大號遙控器”變成了“自己機房里的AI中樞”。這樣做在隱私、安全、成本、可控性和場景適配上都有非常明顯的優勢。



展開來看,在隱私和合規優勢上,當OpenClaw搭配Ollama、LM Studio在本地通過GPU跑模型時,推理全過程(理解指令、讀取文件和生成結果)都在本機完成,提示詞、文檔和中間產物不會發往云端API,這對財務報表、法律文書和客戶數據等敏感場景非常關鍵。

第二個優勢是成本結構更可控。用本地模型替代云端模型之后,整個智能體的鏈路不再每次調用都付雙向的API費用,只需要一次性的硬件投入就能讓高頻自動化任務不再“燒Token”和“燒錢”。畢竟在本地部署各種開源大模型之后接入OpenClaw,Token數量是無限而且免費的。像OpenClaw創始人說的Minimax模型,也可以用兩臺搭載銳龍AI Max+ 395的桌面Mini AI工作站串聯運行(有些帶跳線支持一鍵啟動組件集群),相較于頂配的Mac Studio,兩臺搭載銳龍AI Max+ 395的設備購買更便宜,也更可行。



另外,接入本地模型之后還有離線可用的優勢,即OpenClaw的整個智能決策與工具調用可以完全離線操作,不用依賴網絡環境。對于在工廠、機房、科室或者實驗室等“封閉網絡”中部署OpenClaw的單位和機構來說,本地模型可能是唯一可行的方案,這樣可以在內網環境中實現日志分析、控制腳本執行等自動化。



AMD銳龍AI Max+ 395處理器優勢突出,這款處理器采用“CPU+IGPU+NPU”異構架構,集成16大核心Zen 5 CPU、RDNA 3.5圖形單元及高達50 TOPS算力的NPU,更通過UMA統一內存架構支持最高128GB內存,其中96GB可專用于顯存。這徹底解決了本地大模型運行中的“顯存焦慮”,使得其能夠在本地流暢運行千億參數規模的模型。



自正式發布以來,AMD銳龍AI Max+ 395處理器憑借強大的性能表現和出色的大模型部署表現,開辟出全新的迷你AI工作站細分市場。更重要的是,目前基于AMD銳龍AI Max+ 395處理器的迷你AI工作站產品已經進入各行各業,為用戶帶來領先的AI體驗。



更重要的是,AMD銳龍AI Max+ 395迷你AI工作站非常適合用來部署本地大模型。根據我們以往的測試成績,該平臺能夠暢跑70B稠密大模型(推理速度達到5.84 tokens/s),對于120B的MoE大模型,它的推理速度更是高達48.05 tokens/s,應對80B、30B等主流的MoE模型幾乎是小菜一碟。

另外,由于AMD銳龍AI Max+ 395平臺最高支持128GB內存,最高可分配96GB空間作為顯存,因此它在部署大模型時具備相當充裕的硬件空間。我們在64GB顯存的設置下嘗試同時部署三個大模型:兩個30B MoE大模型和一個14B稠密大模型。部署這三個大模型之后,系統只占用了大約50GB顯存,剩下的硬件空間還比較充裕。



對OpenClaw用戶來講,將OpenClaw接入AMD銳龍AI Max+ 395平臺部署的本地大模型之后,在使用OpenClaw的過程中可以同時接入多個模型同步調用,或者隨時切換各種所需的大模型,若是換成其他Windows 11的獨顯平臺,非但無法部署規模超大的模型(要知道臺式機獨顯RTX 5090也僅有區區32GB的顯存),就算勉強部署,硬件空間也非常吃緊,需要不斷加載和卸載……無法對比調用更談不上提升效率。



我們早前成功在搭載銳龍AI Max+ 395的機器上部署好了OpenClaw,同時還在本地部署了Qwen3-Coder-Next模型。因為模型部署在本地,所以我們使用OpenClaw的時候根本不用擔心Token用量的成本問題。

更進階的玩法是,將AMD銳龍AI Max+ 395迷你AI工作站視作本地大模型API中心,在局域網的其他設備上部署OpenClaw,然后遠程接入使用AMD銳龍AI Max+ 395迷你AI工作站提供的本地大模型,這對初創團隊、中小企業來講是更符合實際的選擇。

總結

總的來看,OpenClaw本身很有特色,功能強大,它代表著AI向前發展的下一個范式。對普通用戶來說,可以快速體驗到新一代AI助手的魅力。不過對于企業用戶、AI開發者或者AI發燒友來說,接入本地模型才能在隱私安全、Token費用等方面取得保障,沒有網絡延遲,支持多個大模型本地同步調用,甚至還能多臺設備串聯提升部署能力,而AMD銳龍AI Max+ 395迷你AI工作站毫無疑問是目前市面上部署本地大模型的最佳平臺,它的硬件空間寬裕,能夠高效運行超大參數的大模型,可以作為本地AI算力中心來接入OpenClaw。OpenClaw與AMD銳龍AI Max+ 395平臺堪稱天作之合,值得大家選購進而加速本地AI部署。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
研究表明:我國男性的早泄率只有2.3%,勃起功能障礙卻高達35%!

研究表明:我國男性的早泄率只有2.3%,勃起功能障礙卻高達35%!

黯泉
2026-04-14 18:19:30
1969年中蘇沖突,朝鮮企圖跨過鴨綠江,毛主席:一招搞定!

1969年中蘇沖突,朝鮮企圖跨過鴨綠江,毛主席:一招搞定!

小莜讀史
2026-04-04 21:56:55
張雪的煙癮被吐槽!粉絲直言他總離不開香煙,網友:人無完人啊…

張雪的煙癮被吐槽!粉絲直言他總離不開香煙,網友:人無完人啊…

火山詩話
2026-04-19 15:31:10
悲劇!廣東96年女生開會時心梗猝死 為2萬月薪半年熬夜硬扛

悲劇!廣東96年女生開會時心梗猝死 為2萬月薪半年熬夜硬扛

老貓觀點
2026-04-20 06:01:26
恒大足校組建廣東晨星聚力俱樂部征戰中冠,目標沖擊中乙資格

恒大足校組建廣東晨星聚力俱樂部征戰中冠,目標沖擊中乙資格

懂球帝
2026-04-20 20:22:11
今天才知道,為啥鵝蛋很少有人吃?為啥賣鵝蛋的人很少?漲知識

今天才知道,為啥鵝蛋很少有人吃?為啥賣鵝蛋的人很少?漲知識

阿龍美食記
2026-04-12 15:01:18
梁家輝5封金像獎最佳男主角,臺上流淚感謝妻子,臺下嘴硬“那是演的”

梁家輝5封金像獎最佳男主角,臺上流淚感謝妻子,臺下嘴硬“那是演的”

紅星新聞
2026-04-20 13:16:57
及時止損!盧卡庫重返那不勒斯,孔蒂不原諒,夏窗清洗買斷霍伊倫

及時止損!盧卡庫重返那不勒斯,孔蒂不原諒,夏窗清洗買斷霍伊倫

夏侯看英超
2026-04-20 23:12:08
楊毅爆猛料!復盤三年前假球真相 李楠可悲遠比李春江更唏噓?

楊毅爆猛料!復盤三年前假球真相 李楠可悲遠比李春江更唏噓?

你看球呢
2026-04-20 15:32:36
李小璐寫真生圖高清

李小璐寫真生圖高清

翩翩明星
2025-11-14 09:39:36
官方發文,26歲孫穎莎高調官宣喜訊,全網恭喜,終于等到這一天

官方發文,26歲孫穎莎高調官宣喜訊,全網恭喜,終于等到這一天

空谷幽幽藍
2026-04-20 23:05:50
1950年蔣介石姐姐被判死刑,周總理求情無果:原來她還有另一身份

1950年蔣介石姐姐被判死刑,周總理求情無果:原來她還有另一身份

大運河時空
2026-04-19 18:05:03
一場1-2爆出大冷門,皇馬棄將爆發:傳射建功,大巴黎主場淪陷

一場1-2爆出大冷門,皇馬棄將爆發:傳射建功,大巴黎主場淪陷

足球狗說
2026-04-20 07:10:43
日本人破防了:DNA檢測日本祖先被證實,日本人不是徐福后代

日本人破防了:DNA檢測日本祖先被證實,日本人不是徐福后代

掠影后有感
2026-04-19 10:16:27
政治上封殺,文化上封神

政治上封殺,文化上封神

最愛歷史
2026-04-20 13:07:36
48歲田蕊妮癌癥復發,心情沉痛難以接受,持續低燒宣布停工治病

48歲田蕊妮癌癥復發,心情沉痛難以接受,持續低燒宣布停工治病

開開森森
2026-04-18 07:02:40
10萬港人擠爆深圳!月租3000住公寓,網友:風水怎么輪流轉了?

10萬港人擠爆深圳!月租3000住公寓,網友:風水怎么輪流轉了?

風風順
2026-04-19 02:05:03
河南平頂山動物園的狼見人就“作揖”討吃的,游客質疑狼被餓著;園方:“作揖”屬正常習性,每天喂一次,一只狼4斤肉

河南平頂山動物園的狼見人就“作揖”討吃的,游客質疑狼被餓著;園方:“作揖”屬正常習性,每天喂一次,一只狼4斤肉

大風新聞
2026-04-20 12:44:10
蔣介石曾孫蔣友松突然宣布:兩蔣靈柩必須遷回浙江奉化

蔣介石曾孫蔣友松突然宣布:兩蔣靈柩必須遷回浙江奉化

深度報
2026-04-20 22:37:17
29分鐘大定破萬 極氪8X為什么這么多人買?

29分鐘大定破萬 極氪8X為什么這么多人買?

正在說車
2026-04-19 07:29:06
2026-04-20 23:55:00
微型計算機 incentive-icons
微型計算機
MC評測室團隊
8728文章數 21574關注度
往期回顧 全部

科技要聞

HUAWEI Pura X Max發布 售價10999元起

頭條要聞

19歲女孩挪用自家1700萬當"榜一大姐" 親爹帶女兒自首

頭條要聞

19歲女孩挪用自家1700萬當"榜一大姐" 親爹帶女兒自首

體育要聞

阿森納已拼盡全力,但你早干嘛去了...

娛樂要聞

《八千里路云和月》田家泰暗殺

財經要聞

利潤暴跌7成,字節到底在做什么

汽車要聞

把天門山搬進廠?開仰望U8沖上45度坡的那刻 我腿軟了

態度原創

家居
藝術
健康
公開課
軍事航空

家居要聞

自然慢調 慢享時光

藝術要聞

王羲之《換鵝帖》尚在人間,驚艷無比!

干細胞抗衰4大誤區,90%的人都中招

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

特朗普:美艦向伊朗貨船開火炸出個洞

無障礙瀏覽 進入關懷版