近日,銀河通用聯(lián)合北京智源人工智能研究院(BAAI)及北京大學和香港大學研究人員,鄭重發(fā)布首個全面泛化的端到端具身抓取基礎(chǔ)大模型 GraspVLA。 據(jù)介紹,GraspVLA 的訓練包含預訓練和后訓練兩部分。其中預訓練完全基于合成大數(shù)據(jù),訓練數(shù)據(jù)達到了有史以來最大的數(shù)據(jù)體量——十億幀「視覺-語言-動作」對,掌握泛化閉環(huán)抓取能力、達成基礎(chǔ)模型;預訓練后,模型可直接 Sim2Real 在未見過的、千變?nèi)f化的真實場景和物體上零樣本測試,全球首次全面展現(xiàn)了七大卓越的泛化能力,滿足大多數(shù)產(chǎn)品的需求;而針對特別需求,后訓練僅需小樣本學習即可遷移基礎(chǔ)能力到特定場景,維持高泛化性的同時形成符合產(chǎn)品需求的專業(yè)技能。 GraspVLA 展示了無需大規(guī)模真實數(shù)據(jù)、僅通過合成數(shù)據(jù)達到基礎(chǔ)模型的預訓練過程,和進一步通過小樣本微調(diào)使基礎(chǔ)“通才”快速成長為指定場景“專家”的能力,定義了 VLA 發(fā)展的新范式。這一方式打破了世界范圍內(nèi)具身通用機器人當前發(fā)展的兩大瓶頸 。 真實數(shù)據(jù)采集不僅非常昂貴,且很難覆蓋所有可能的實際應(yīng)用場景,導致數(shù)據(jù)量不夠無法訓練出基礎(chǔ)模型、采集成本過大以致無法盈利。即便不計成本地采集,由于人形機器人硬件遠未收斂,隨著硬件更新,原有的數(shù)據(jù)效力將大打折扣,造成大規(guī)模的浪費。 數(shù)據(jù)的缺乏直接限制了機器人的泛化性和通用性。大部分機器人只能在特定的環(huán)境、特定的物體和特定的條件下完成專用任務(wù),人形機器人無法實現(xiàn)規(guī)模商業(yè)化。 以 GraspVLA 為代表的銀河通用技術(shù)路線具有低成本、大數(shù)據(jù)、高泛化的特點,突破了具身智能的發(fā)展瓶頸,將在2025年引領(lǐng)端到端具身大模型走向規(guī)模商業(yè)化。 來源: 網(wǎng)易科技報道 |