創(chuàng )澤機器人 |
CHUANGZE ROBOT |
傳統的機器人控制方法依賴(lài)于精確的動(dòng)力學(xué)模型和專(zhuān)家知識,難以適應非結構化環(huán)境的不確定性和復雜性。近年來(lái),學(xué)習型控制的發(fā) 展使得機器人能夠從數據中學(xué)習控制策略,但其泛化能力和魯棒性仍 難以滿(mǎn)足復雜場(chǎng)景需求。大模型為機器人控制引入了豐富的先驗知識 和泛化能力,有望進(jìn)一步突破傳統控制方法的局限性。整體上看,目前展廳迎賓機器人的“小腦”核心技術(shù)正在從基于模型的控制方法向基于學(xué)習的控制方法演進(jìn)。
在強化學(xué)習領(lǐng)域,大模型為引入先驗知識和提高樣本效率提供了 新的思路。以 LanguagePlan 為例,該模型利用 GPT-3 根據任務(wù)描述 生成抽象的行動(dòng)計劃,如“先走到門(mén)口,然后打開(kāi)門(mén),再走出房間”。 然后,LanguagePlan 將該行動(dòng)計劃嵌入到狀態(tài)空間中,作為額外的觀(guān) 察信息,用于訓練一個(gè)分層強化學(xué)習智能體。實(shí)驗表明,LanguagePlan 能夠顯著(zhù)提高樣本效率和泛化性能,加速復雜任務(wù)的學(xué)習。類(lèi)似地,LOFT、T-EBM 等模型也展示了利用語(yǔ)言模型引導策略學(xué)習的能力。
在模仿學(xué)習方面,視覺(jué)-語(yǔ)言模型為機器人學(xué)習復雜技能提供了新的范式。以 CLIP-ASAP 為例,該模型首先利用 CLIP 將視頻幀編 碼為語(yǔ)義特征,然后通過(guò)因果語(yǔ)言建模學(xué)習動(dòng)作與視覺(jué)變化之間的關(guān) 系。在控制階段,CLIP-ASAP 根據語(yǔ)言指令和當前視覺(jué)觀(guān)察,預測下 一時(shí)刻的關(guān)鍵幀,并將其傳遞給低層控制器執行。實(shí)驗表明,CLIPASAP 能夠學(xué)習復雜的長(cháng)期技能,如烹飪、家政等,且具有很強的泛化能力,能夠根據不同的指令組合技能。類(lèi)似地,R3M、Pix2R 等模 型也展示了利用視覺(jué)-語(yǔ)言對齊進(jìn)行模仿學(xué)習的能力。
盡管大模型在機器人控制中展現出了廣闊的應用前景,但如何進(jìn) 一步提高其實(shí)時(shí)性、魯棒性和可解釋性仍然是亟待解決的問(wèn)題。此外, 如何將控制與感知、決策和規劃更緊密地結合,構建端到端的自主系 統,也是未來(lái)的重要研究方向。
![]() |
機器人底盤(pán) Disinfection Robot 消毒機器人 講解機器人 迎賓機器人 移動(dòng)機器人底盤(pán) 商用機器人 智能垃圾站 智能服務(wù)機器人 大屏機器人 霧化消毒機器人 紫外線(xiàn)消毒機器人 消毒機器人價(jià)格 展廳機器人 服務(wù)機器人底盤(pán) 核酸采樣機器人 智能配送機器人 導覽機器人 |