MIT 發表新機器人控制方法 NJF,讓機器人「用看的」學會控制身體
機器人未來可能將不再需要透過複雜的感測系統來「了解」自己。麻省理工學院科學與人工智慧實驗室(MIT CSAIL)最近開發了名為「Neural Jacobian Fields(NJF)」的機器人視覺導向控制方法──這項系統不須手動建模、無須複雜的外部或機載感測器,只要一台攝影機,就能讓機器人感知並學習其身體如何回應命令,這種方法賦予機器人新的「身體意識」。
學習「自我觀察」,顛覆傳統機器人設計思維
MIT 電腦科學與人工智慧實驗室(CSAIL)博士生兼資深研究員 Sizhe Lester Li 表示,現在多數機器人任務仰賴大量工程與程式設計,「但未來我們希望能透過示範動作給機器人看,讓它自己學會怎麼達成目標。」
是什麼需求驅動此一突破?根據 MIT CSAIL,當前機器人設計多建立在既有假設之上:機器人具備不易變形的剛性結構、內建大量感測器,並能對應建立出精準的數位孿生模型。這些假設讓傳統控制系統比較容易運作,可是一旦換做柔軟、可變形或結構不規則的機器人就不適用。NJF 技術背後邏輯是,與其強迫機器人適應這些假設,不如透過觀察自己,學會控制邏輯和內部系統。
也就是說,開發人員可以更自由地探索機器人非傳統、不受拘束的型態,不必擔心之後是否能對特定型態進行建模獲控制。MIT 研究團隊表示,這能讓機器人開發降低門檻、技術價格更實惠、適應性更強,「視覺是一種靈活可靠的感測器。」
NJF 研究團隊表示,這項方法已成功應用於多種機器人,包括氣壓驅動的軟體機械手、剛性機械手(Allegro)、3D 列印的機械臂,以及未內建任何感測器的旋轉平台。根據在每種實驗中,NJF 都能靠視覺學會機體形狀與動作反應,並實現即時控制,每秒可達 12 次閉迴圈反饋。
NJF 應用場域可拓展至農業、建築與家庭
CSAIL 所長 Daniela Rus 補充,NJF 展現的潛力不只是在研究室,農業自動化、建築工地、倉儲環境、甚至家用機器人,都可能因此受益。
MIT 研究團隊也強調,雖然目前 NJF 的訓練仍需多攝影機架設、針對單一機體重新建模,但未來有望簡化到只用手機拍攝機器人動作影片,就可快速生成對應的控制模型,讓業餘開發者也能參與應用。
這份研究成果已於近期發表於《Nature》期刊,並獲得 MIT 研究支持基金、美國國家科學基金會及韓國光州科學技術院等機構資助。
*本文開放合作夥伴轉載,資料來源:《The Robot Report》、MIT CSAIL,首圖來源:MIT CSAIL
留言 1