Print Friendly, PDF & Email

Tre ricercatori dell’Università di Osaka ha trovato un metodo per identificare e valutare quantitativamente i movimenti facciali sulla testa del loro robot android. Denominato Affetto, il modello di prima generazione di Android è stato riportato in una pubblicazione del 2011. I ricercatori hanno ora trovato un sistema per rendere Affetto di seconda generazione più espressivo. Le loro scoperte offrono un percorso per gli androidi per esprimere una gamma più ampia di emozioni e, in definitiva, hanno un’interazione più profonda con gli esseri umani. I ricercatori hanno riportato i loro risultati sulla rivista “Frontiers in Robotics and AI”.
“Le deformazioni della superficie sono un problema chiave nel controllo delle facce di Android”, spiega il coautore dello studio Minoru Asada. “I movimenti della loro morbida pelle facciale creano instabilità, e questo è un grosso problema hardware con cui ci confrontiamo. Abbiamo cercato un modo migliore per misurarlo e controllarlo.”
I ricercatori hanno studiato 116 diversi punti facciali su Affetto per misurare il suo movimento tridimensionale. I punti facciali erano sostenuti dalle cosiddette unità di deformazione. Ogni unità comprende una serie di meccanismi che creano una distorsione facciale distintiva, come l’abbassamento o l’innalzamento di una parte di un labbro o di una palpebra.
Le misurazioni da questi sono state poi sottoposte a un modello matematico per quantificare i loro modelli di movimento superficiale.
Mentre i ricercatori hanno affrontato sfide nel bilanciare la forza applicata e nel regolare la pelle sintetica, sono stati in grado di impiegare il loro sistema per regolare le unità di deformazione per un controllo preciso dei movimenti della superficie facciale di Affetto.
“I robot Android hanno continuato a essere un problema con la scatola nera: sono stati implementati, ma sono stati giudicati solo in termini vaghi e generali”, dice il primo autore dello studio Hisashi Ishihara. “I nostri risultati precisi ci consentiranno di controllare efficacemente i movimenti facciali di Android per introdurre espressioni più sfumate, come sorridere e accigliarsi”.

Share Button