
近日,北京通用人工智能研究院具身智能機器人團隊在機器人算法領域取得重大突破,提出全球首個“力位混合控制算法的統一理論”。該算法無需依賴力傳感器,就能讓機器人同時學習位置與力的控制,相關任務成功率較只使用位置控制的策略提高了約39.5%。更值得關注的是,其相關論文目前已斬獲國際機器人學習大會杰出論文獎,這也是該獎項設立以來,首次由全中國籍學者團隊摘得。
在北京通用人工智能研究院的實驗現場,一個搭載了這項新算法的四足機械犬,正有條不紊地執行擦白板的訓練任務。科研人員借著這一實操場景,解釋了力位混合控制算法的核心原理與突出優勢。
![]()
科研人員介紹,當前廣泛應用的視覺-語言-動作模型(VLA),在應對現實生活中的諸多任務時,往往會顯得“力不從心”,核心問題就在于這些任務大多涉及復雜的接觸場景。比如,擦黑板時,機械臂必須既貼合表面又保持適當的壓力;開關柜門時,需精準感知內部的推拉彈簧結構。機器人需要的不僅是“走到哪里”“手伸到哪里”,還需要理解“該用多大的力”。而在沒有力位混合控制算法前,這些都需要通過力傳感器來解決。
人機協同更流暢
拓展多元應用場景
隨著力位混合控制算法的深度應用,機器人不僅可以在沒有力傳感器的條件下,實現位置跟蹤、施力、力跟蹤以及柔順交互等多種操作行為,大幅提升了任務成功率,更在人機協同安全性上取得了重要突破,為未來機器人應用場景的拓展奠定了基礎。
依托這一創新算法,機器人的能力邊界正在持續拓寬。它不僅能精準完成軌跡執行、施力等基礎操作,更能在感受到外力時,及時對這一外力做出相應的反應。而這一特性,也恰好提升了人機交互過程中的人員安全性。
除了提升安全性,這一算法還顯著增強了人機協作的協調性。在共同搬箱子、推車等場景中,機器人能與人類保持動作同步。人類加速時它隨之加速,人類停下時它迅速停下,過程中可根據人的不同運動狀態進行實時調整。同時,該算法還具備良好的泛化能力,即便更換不同類型的機器人,依然能夠穩定應用。
來源:央視新聞客戶端
▼ 往期熱文推薦 ▼
【溫馨提示】文中部分圖片來源網絡,版權歸屬原作者,若有不妥,請聯系告知修改或刪除。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.