高德正式全量開源ABot-M0——全球首個基于統一架構的機器人具身操作基座模型,可實現一個“通用大腦”適配多種形態的具身機器人。
據悉,該模型在Libero、Libero-Plus、RoboCasa等多個權威基準測試中實現SOTA。其中在Libero-Plus基準上,該模型的任務成功率達80.5%,較業界此前的標桿方案Pi0提升近30%。
![]()
ABot-M0模型架構圖
此次ABot-M0的開源涵蓋數據、算法與模型三大維度,旨在突破數據孤島與部署難點,為具身智能領域提供前沿的空間理解能力,以及"開箱即用"的通用技術基座。
數據層面,ABot-M0開源了目前規模最大的通用機器人數據集UniACT,整合超過600萬條真實操作軌跡,并提供從原始異構數據到標準化訓練數據的全流程處理管線。 通過統一動作表示、坐標系與控制頻率,該數據集讓分散全球的異構機器人數據能夠統一使用,大幅提升預訓練效率。
算法層面,ABot-M0同步開源了模型架構與訓練框架,其中包含高德創新提出的動作流形學習(AML)算法與雙流感知架構。 AML摒棄傳統噪聲干擾的預測方式,讓模型直接預測物理上可行的動作序列,而不是反復試錯,顯著提升解碼效率與策略穩定;雙流感知架構,不僅利用 VLM (Qwen3-VL) 提供高級語義理解,還允許通過一個“即插即用”的 3D 模塊(如 VGGT)注入幾何先驗,增強模型的空間理解能力,無需修改骨干網絡,即可彌補標準VLM在3D推理上的短板。
模型層面,ABot-M0一并開源了端到端的預訓練模型與完整工具鏈,開發者無需從零搭建訓練框架即可快速適配工業、家庭等場景。統一架構驗證了"一個大腦驅動多種形態"的可行性,為"通用大腦+專用軀體"的產業標準形成,提供了實證支撐。
![]()
ABot-M0在Libero-Plus的評測結果
開源地址:
https://github.com/amap-cvlab/ABot-Manipulation
論文全文:
https://arxiv.org/pdf/2602.11236
2026 年 4 月 24 日周五上午 09:30 至 12:30,開源中國 OSC 源創會 x FAIR plus2026「具身智能工程化實戰沙龍」將在深圳福田會展中心拉開帷幕,將聚焦具身智能從技術研發到工程落地的核心痛點。
![]()
?OSC源創會 × FAIR plus 2026
【具身智能工程化實戰沙龍】
深圳福田會展中心9號館4號會議室
?一線項目復盤
失敗案例拆解
AI硬件資源對接
報名 oschina.net/event/8598188
活動現場還將投放一款開箱即用的小龍蝦迷你主機「模力方舟 PocketClaw」。PocketClaw 出廠預裝龍蝦智能體操作系統,將小巧靈活的智能硬件、強大的智能體操作系統,與高性價比的“模力方舟”大模型 API 生態完美融合。為用戶打破軟硬件壁壘,提供開箱即用的本地專屬 AI 助手。
![]()
屆時所有來到現場的小伙伴都能隨意把玩品鑒這款“口袋龍蝦”,更有獎品豐富的現場抽獎活動,期待與你共赴這場特別的“品蝦宴”。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.