banner

Blog

Sep 14, 2023

L'intelligenza artificiale aiuta i robot a manipolare gli oggetti con tutto il corpo

Le immagini per il download sul sito web dell'ufficio notizie del MIT sono rese disponibili a entità non commerciali, stampa e pubblico in generale sotto una licenza Creative Commons Attribution Non-Commercial No Derivatives. Non è possibile modificare le immagini fornite, se non ritagliandole a misura. Per la riproduzione delle immagini è necessario utilizzare una linea di credito; se non ne viene fornito uno di seguito, accreditare le immagini a "MIT".

Immagine precedente Immagine successiva

Immagina di voler trasportare una scatola grande e pesante su una rampa di scale. Potresti allargare le dita e sollevare la scatola con entrambe le mani, quindi tenerla sopra gli avambracci e bilanciarla contro il petto, usando tutto il corpo per manipolare la scatola.

Gli esseri umani sono generalmente bravi nella manipolazione del corpo intero, ma i robot hanno difficoltà con tali compiti. Per il robot, ogni punto in cui la scatola può toccare qualsiasi punto delle dita, delle braccia e del busto del trasportatore rappresenta un evento di contatto su cui deve ragionare. Con miliardi di potenziali eventi di contatto, la pianificazione di questa attività diventa rapidamente difficile.

Ora i ricercatori del MIT hanno trovato un modo per semplificare questo processo, noto come pianificazione della manipolazione ricca di contatti. Usano una tecnica di intelligenza artificiale chiamata smoothing, che riassume molti eventi di contatto in un numero minore di decisioni, per consentire anche a un semplice algoritmo di identificare rapidamente un piano di manipolazione efficace per il robot.

Sebbene sia ancora agli inizi, questo metodo potrebbe potenzialmente consentire alle fabbriche di utilizzare robot mobili più piccoli in grado di manipolare oggetti con le loro intere braccia o corpo, piuttosto che grandi bracci robotici che possono afferrarli solo con la punta delle dita. Ciò può contribuire a ridurre il consumo di energia e ad abbassare i costi. Inoltre, questa tecnica potrebbe essere utile nei robot inviati in missioni di esplorazione su Marte o in altri corpi del sistema solare, poiché potrebbero adattarsi rapidamente all’ambiente utilizzando solo un computer di bordo.

“Piuttosto che pensare a questo come a un sistema a scatola nera, se riusciamo a sfruttare la struttura di questo tipo di sistemi robotici utilizzando modelli, c’è l’opportunità di accelerare l’intera procedura per cercare di prendere queste decisioni e trovare soluzioni ricche di contatti. piani”, afferma HJ Terry Suh, uno studente laureato in ingegneria elettrica e informatica (EECS) e co-autore principale di un articolo su questa tecnica.

Insieme a Suh nell'articolo ci sono il co-autore principale Tao Pang PhD '23, un esperto di robotica presso il Boston Dynamics AI Institute; Lujie Yang, uno studente laureato EECS; e l'autore senior Russ Tedrake, professore Toyota di EECS, aeronautica e astronautica e ingegneria meccanica e membro del Laboratorio di informatica e intelligenza artificiale (CSAIL). La ricerca appare questa settimana in IEEE Transactions on Robotics.

Imparare ad imparare

L'apprendimento per rinforzo è una tecnica di apprendimento automatico in cui un agente, come un robot, impara a completare un'attività attraverso tentativi ed errori con una ricompensa per essersi avvicinato a un obiettivo. I ricercatori affermano che questo tipo di apprendimento adotta un approccio a scatola nera perché il sistema deve imparare tutto sul mondo attraverso tentativi ed errori.

È stato utilizzato in modo efficace per la pianificazione della manipolazione ricca di contatti, in cui il robot cerca di apprendere il modo migliore per spostare un oggetto in un modo specifico.

Ma poiché potrebbero esserci miliardi di potenziali punti di contatto su cui un robot deve ragionare per determinare come utilizzare le dita, le mani, le braccia e il corpo per interagire con un oggetto, questo approccio per tentativi ed errori richiede una grande quantità di calcoli.

“L’apprendimento per rinforzo potrebbe richiedere milioni di anni nel tempo di simulazione per essere effettivamente in grado di apprendere una politica”, aggiunge Suh.

D’altra parte, se i ricercatori progettano specificamente un modello basato sulla fisica utilizzando la loro conoscenza del sistema e il compito che vogliono che il robot svolga, quel modello incorpora una struttura di questo mondo che lo rende più efficiente.

CONDIVIDERE