Print Friendly, PDF & Email

I robot hanno bisogno di conoscere la ragione per cui compiono un lavoro e se le condizioni in cui operano siano in sicurezza per loro stessi e per gli esseri umani con cui interagiscono. In altre parole, anche le macchine devono comprendere il senso di quello che stanno facendo e non eseguire ciecamente comandi e operazioni.
Secondo uno studio pubblicato su “Nature Machine Intelligence”, frutto della collaborazione tra l’Università di Birmingham, l’Istituto di BioRobotica della Scuola Superiore Sant’Anna, l’Università di Pisa, l’ARC Centre of Excellence for Robotic Vision e il German Aerospace Center, questa necessità potrebbe portare a un profondo cambiamento nel mondo della robotica. Come sostiene infatti Valerio Ortenzi, ricercatore dell’Università di Birmingham e prima firma del paper, il cambiamento nel pensiero di un robot sarà obbligato e investirà vari settori, come quello dell’automazione e dell’industria 4.0, o come quello dell’interazione uomo-robot in ambienti domestici.
Lo studio esplora la questione della presa degli oggetti da parte di un robot. Afferrare un oggetto in natura è un’azione perfezionata molti anni fa ma che rappresenta ancora una sfida aperta in robotica. La maggior parte delle macchine utilizzate finora in fabbrica lavora in maniera automatica, raccogliendo oggetti in luoghi e tempi prestabiliti. Per garantire che ciò avvenga, è necessaria l’interazione di più tecnologie complesse che includono sistemi di visione e Intelligenza Artificiale in grado di far vedere alla macchina l’oggetto e determinarne la proprietà e la forza di presa.
Lo studio evidenzia un problema, anche quando il procedimento appena descritto avviene correttamente: ciò che per il robot può essere considerato come un’azione di successo, potrebbe invece rivelarsi un fallimento nella vita reale o nell’interazione con un essere umano.
I ricercatori riportano alcuni esempi, ispirati a robot che lavorano a fianco di essere umani.
“Immaginate di chiedere a un robot di passarvi un cacciavite in un laboratorio – spiega Valerio Ortenzi – i codici in possesso del robot lo spingeranno a impugnare il manico e passarvi il cacciavite dalla parte sbagliata, compiendo un ‘passaggio di consegne’ pericoloso. Il robot invece ha bisogno di sapere qual è l’obiettivo finale di un’azione, al fine di ripensare la sua attività e di adattarla al contesto.”
“Pensate anche a un robot in una casa di cura che passa un bicchiere d’acqua a un anziano – continua Ortenzi – Il robot non deve solo impedire che il bicchiere caschi o che si versi l’acqua, ma capire a chi passerà il bicchiere per favorire il passaggio dell’oggetto. In altre parole, quello che è ovvio per un essere umano deve essere programmato in un robot e questo implica un approccio totalmente diverso”. 
“Siamo convinti che una nuova metrica, – afferma Marco Controzzi, ricercatore dell’Istituto di BioRobotica della Scuola Superiore Sant’Anna e secondo autore del paper – basata sull’osservazione di come l’uomo interagisce con le cose e con l’ambiente, sia fondamentale per lo sviluppo di una nuova generazione di robot in grado non solo di operare con successo in situazioni complesse, ma soprattutto di collaborare in modo sicuro ed efficace con l’uomo.”
“Le metriche tradizionali utilizzate dai ricercatori negli ultimi venti anni per valutare la manipolazione robotica non sono sufficienti – sostiene Matteo Bianchi, ricercatore del Centro di ricerca E. Piaggio e del Dipartimento dell’Ingegneria dell’Informazione dell’Università di Pisa – I robot hanno bisogno di una nuova filosofia.”

Share Button