Cercetătorii UC Berkeley au dezvoltat o tehnologie de învățare robotizată care permite roboților să-și imagineze viitorul acțiunilor lor, astfel încât să își poată da seama cum să manipuleze obiectele pe care nu le-au întâlnit niciodată. În viitor, această tehnologie ar putea ajuta mașinile cu autovehicule să anticipeze evenimentele viitoare pe drum și să producă asistenți robotici mai inteligenți în locuințe, dar prototipul inițial se concentrează pe învățarea unor abilități manuale simple în întregime din jocul autonom.
Folosind această tehnologie, numită previziune vizuală, roboții pot prezice ce vor vedea camerele lor dacă efectuează o anumită secvență de mișcări. Aceste imaginații robotice sunt încă relativ simple deocamdată - previziuni făcute doar câteva secunde în viitor - dar sunt suficiente pentru ca robotul să-și dea seama cum să miște obiectele pe o masă fără obstacole deranjante. În mod crucial, robotul poate învăța să îndeplinească aceste sarcini fără niciun ajutor din partea oamenilor sau cunoștințe prealabile despre fizică, mediul său sau care sunt obiectele. Asta pentru că imaginația vizuală este învățată în totalitate de la zero, din explorarea nesupravegheată și nesupravegheată, în care robotul se joacă cu obiecte pe o masă. După această fază de joc, robotul construiește un model predictiv al lumii și poate folosi acest model pentru a manipula obiecte noi pe care nu le-a văzut până acum.
„În același mod în care ne putem imagina cum acțiunile noastre vor muta obiectele din mediul nostru, această metodă poate permite unui robot să vizualizeze modul în care diferite comportamente vor afecta lumea din jurul său”, a spus Sergey Levine, profesor asistent în departamentul de inginerie electrică și științele computerelor din Berkeley, al cărui laborator a dezvoltat tehnologia. „Acest lucru poate permite planificarea inteligentă a abilităților extrem de flexibile în situații complexe din lumea reală.”
[the_ad id = "11018 ″]
Echipa de cercetare va efectua o demonstrație a tehnologiei vizuale vizuale la Conferința Sistemelor de prelucrare a informațiilor neuronale în Long Beach, California, pe 5 decembrie.
La baza acestui sistem se află o tehnologie de învățare profundă bazată pe predicția video recurentă recurentă sau advecție neuronală dinamică (ADN). Modelele bazate pe ADN prezic modul în care pixelii dintr-o imagine se vor muta de la un cadru la altul pe baza acțiunilor robotului. Îmbunătățirile recente ale acestei clase de modele, precum și capacitățile de planificare îmbunătățite, au permis controlul robotic bazat pe predicția video pentru a efectua sarcini din ce în ce mai complexe, cum ar fi glisarea jucăriilor în jurul obstacolelor și repoziționarea mai multor obiecte.