4月20日消息,戴盟機器人聯合谷歌DeepMind、中國移動、新加坡國立大學、香港科技大學、北京大學、清華大學等數十家全球頂尖學術機構與知名企業,共同發布了全球規模最大的含觸覺全模態物理世界數據集“Daimon Infinity”。
![]()
據悉,該數據集整合了觸覺、視覺、動作軌跡、執行動作、語音文本等多個維度的信息,預計在今年內其總規模將達到數百萬小時。其中,首批10000小時數據已正式開源,并上線阿里魔搭社區。
據了解,在具身智能領域,數據的重要性已成為行業共識。Daimon Infinity數據集旨在通過構建高質量、大規模的數據集,以解決當前制約具身智能技術落地應用的數據缺口問題。該數據集的核心特點之一在于包含了高質量的觸覺數據。觸覺信息能夠為機器人提供直接的物理反饋,有效彌補視覺感知在遮擋、光線不足等復雜情況下的局限性,有助于機器人完成更精準、穩定的操作。戴盟機器人方面表示,基于其視觸覺融合技術路線,該數據集提供的觸覺數據覆蓋了接觸力、形變、滑移趨勢、物體紋理材質等十多種模態信息。
據介紹,Daimon Infinity的另一個關鍵特征在于其數據采集源于真實場景。該團隊通過自研的輕量化、便攜式采集設備,構建了外發式數據采集網絡,使數據采集工作能夠深入家庭、戶外、工廠等多樣化、非標準化的真實環境,從而獲取更豐富的操作數據,支持模型的泛化能力訓練。該模式也使得數據集具備了大規模擴展的生產能力。
據了解,通過該數據集對具身模型進行預訓練,可在精細操作任務中實現約10倍的訓練效率提升。此次由多家行業頭部機構聯合共建并開源部分數據,被業界視為有助于避免數據采集的重復投入,并可能推動相關技術標準的探索與建立,加速具身智能從實驗室研究向產業應用落地的進程。(崔玉賢)
