近日,加州大學伯克利分校的計算機科學家們研發(fā)出“可以預見未來要發(fā)生的事情”的機器人技術(shù),利用這項技術(shù),機器可以做到:操控以前沒有見過的物件;并且在未來,這項技術(shù)可以應用在自動駕駛汽車的預測事件,并可以幫助生產(chǎn)更多的家庭機器人。
這個機器人的名字叫Vestri,所利用的技術(shù)是視覺預見技術(shù)。運用視覺預見技術(shù),機器人可以在完全自主學習的情況下,看到如果他們執(zhí)行特定的動作會產(chǎn)生怎樣的結(jié)果。據(jù)雷鋒網(wǎng)新智造知悉:目前,研究者在NIPS 2017上展示了這項技術(shù)。
目前,機器人的預測能力還比較簡單,只能預見未來幾秒內(nèi)發(fā)生的事情——但是它們足夠讓機器人弄清楚如何在桌子上移動物體,而不會碰到障礙物。目前,機器人專注于從完全自主的游戲中學習簡單的動手技能,最重要的是機器人要學會在沒有人幫助或事先不知道有關(guān)物理、環(huán)境、物件知識的情況下執(zhí)行任務。
要讓機器人學會在桌面上操控物體,這需要在從無人監(jiān)督的狀態(tài)中探索學習,培養(yǎng)視覺的想象力,像嬰兒一樣,從零開始學習理解世界,用物體進行實驗,找出如何以最好的路徑移動物體。
在歷經(jīng)了這個游戲的階段之后,機器人可以構(gòu)建一個對世界的預測模型,并且可以利用這些模型來操作一些以前沒有見過的新物體。
伯克利大學電子工程和計算機科學系助理教授Sergey Levine說:“人類可以想象我們在移動物件的動作,這種方法也可以使用于機器人,機器人可以想象不同的的動作將如何影響周圍的環(huán)境?!?/P>
Sergey Levine補充說:“這項視覺預見可以在復雜的現(xiàn)實環(huán)境中實現(xiàn)高度的智能規(guī)劃?!?/P>
這個機器人主要依靠深度學習的技術(shù)(稱為dynamic neural advection,簡稱DNA)。這個基于DNA的模型根據(jù)機器人的動作預測圖像中的圖像是如何從這一幀移動到下一幀。使用這個模型,機器人能夠執(zhí)行復雜的任務,例如在障礙物周圍滑動玩具并重新定位多個物體。Levine實驗室的博士學生和原DNA模型的發(fā)明人Chelsea Finn說“過去,機器人已經(jīng)學會了人類主管幫助和提供反饋的條件下掌握技能。”
這項技術(shù)的刺激之處就是使得機器人在完全自主的情況下學會怎么處理物件。據(jù)雷鋒網(wǎng)新智造了解到,有了這項新技術(shù),機器人可以在桌上移動物件,然后利用預測模型來移動選擇將物體移動到所需位置的動作。機器人利用從原始攝像頭觀察的學習模型來自學如何避開障礙物,并在障礙物周圍推動物體。
Levine說:“嬰兒可以通過玩玩具、擺動玩具、抓握等等來理解世界。我們的目標是讓機器人做同樣的事情:通過自主的互動來了解世界是如何運作的?!?/P>
同時,Levine補充說:“目前,機器人的學習能力仍然有限,但是它的技能是完全自動學習的,并且可以通過建立在先前觀察到的模式來預測如何操作沒有控制過的物件?!?/P>
2025-01-01 20:12
2025-01-01 20:07
2024-12-29 08:55
2024-12-29 08:45
2024-12-28 11:42
2024-12-27 09:59
2024-12-27 09:46
2024-12-27 09:44
2024-12-27 09:42
2024-12-26 10:48