Università e scuola

Pepper durante una "passeggiata" all'interno della Basilica di Palazzo Bo. Foto: Massimo Pistore

Università e scuola

Come muovere un robot con il "pensiero"

19 dicembre 2017

Tutto è nato per caso. Da alcune foto di Pepper che si aggira tra i cortili dell’università di Padova pubblicate su Facebook. Lui è un robottino umanoide che da qualche tempo viene utilizzato in Pediatria a Padova per distrarre i piccoli pazienti prima di esami o terapie particolarmente invasivi. L’intenzione è di renderlo fruibile in futuro anche a bambini con patologie invalidanti, grazie alla possibilità di teleguidarlo con il “pensiero”. “Sarebbe curioso provarci” è stata la prima considerazione osservando le immagini. Qualche messaggio in chat con Roberto Mancin del dipartimento di Salute della donna e del bambino di Padova, che da tempo si occupa di robot sociali e neurorobotica con Emanuele Menegatti dell’Intelligent Autonomous Systems Laboratory (Ias-Lab) dell’università di Padova, e l’esperimento viene fissato. Avrei guidato il robot da remoto.

Ad accogliermi con Pepper è Gloria Beraldo, dottoranda del dipartimento di Ingegneria dell’informazione, e Roberto che mi conducono nella stanza in cui si trova la strumentazione. Lì anche Sanbot, l’ultimo robot arrivato. Mi siedo davanti a un monitor e indosso una cuffia con 16 elettrodi che mi vengono fissati sulla testa con del gel.

Menegatti, giunto dopo poco, mi spiega che il controllo di robot autonomi può avvenire in diversi modi. I comandi possono essere inviati con un semplice joystick, ma i metodi sono anche altri. È possibile associare a determinati livelli di attivazione muscolare specifici comandi al robot, registrando i segnali provenienti dai muscoli con elettromiogramma; lo stesso principio si può applicare all’attività cerebrale, acquisita con elettroencefalogramma. In quest’ultimo caso si parla di sistemi di “brain computer interface” (interfaccia cervello-computer) associati a strumenti robotici, che permettono di decodificare le intenzioni del soggetto e di tradurle in azioni per dispositivi esterni. In pratica, quello che avrei provato io.

La procedura necessaria per riuscire a muovere Pepper richiede impegno, dato che il nostro cervello viene sottoposto a un vero e proprio “allenamento”. Gloria mi spiega che il robot è in grado di muoversi autonomamente davanti a sé e chi ne ha il controllo può decidere se dirigerlo verso destra o verso sinistra. A ognuna delle due direzioni è associato il movimento rispettivamente dei piedi e delle mani che deve immaginare di compiere la persona che lo guida: se voglio condurre Pepper verso destra dovrò pensare al movimento dei piedi, se voglio condurlo verso sinistra a quello delle mani. La cosa tuttavia non è così banale, dato che per attivare le aree cerebrali deputate al movimento è necessario cercare di provare la sensazione reale di un battito di mani, ad esempio, o dei piedi che sbattono per terra durante una corsa. Vengo sottoposta a due batterie di esercizi, nel corso delle quali mi alleno nei due diversi task motori. La mia attività cerebrale, intanto, viene registrata con elettroencefalogramma. È necessaria molta concentrazione. Nel secondo gruppo di esercizi ricevo un feedback simultaneo della mia prestazione e realizzo di avere difficoltà con il movimento delle mani: per quanto io provi a immaginare un applauso o uno sfregamento, non riesco a trasmettere alcun segnale e il sistema non distingue in modo netto il movimento delle mie mani dai piedi. Forse, mi dicono, il movimento immaginato non è il più adatto o forse influisce un rumore di fondo presente nella stanza. Continuiamo comunque. Dopo essere stata acquisita, l’attività cerebrale generata volontariamente viene processata e utilizzata per controllare Pepper. Il robottino viene portato in un’altra stanza e, attraverso la telecamera di cui è dotato, vedo dove si dirige. Nonostante le difficoltà durante gli esercizi (e un po' di frustrazione, ammettiamolo) riesco a farlo muovere quando lo decido ma, come ci si aspettava, solo verso destra.     

Si sa ormai che questi sistemi negli adulti funzionano. Menegatti mi spiega che i diversi centri di ricerca che se ne occupano stanno ora cercando di rendere il metodo più robusto, di ridurre i tempi di allenamento e di capire se esista una forma di attivazione cerebrale comune a tutti, per evitare di dover addestrare il sistema di intelligenza artificiale di classificazione da zero per ogni persona diversa. Tuttavia ciò che ancora non si sa è se il cervello dei bambini reagisca allo stesso modo a questi strumenti ed è ciò a cui il gruppo del docente sta lavorando, in collaborazione con il dipartimento di Salute della donna e del bambino.

In generale, i robot sociali stanno dimostrando una spendibilità sempre maggiore. Menegatti sottolinea che possono essere impiegati in telepresenza in individui con gravi disabilità motorie o costretti in un ambiente protetto per problemi di immunodeficienza: attraverso i robot i pazienti possono continuare a interagire con i familiari o altre persone in ambienti diversi o addirittura in altre città. Si possono utilizzare per la teledidattica e cita l’esempio di una ragazzina padovana malata di tumore, che tra non molto potrà riprendere a seguire le lezioni e interagire con i compagni grazie a Sanbot, un robot presente in classe al posto suo. E ancora, la robotica può costituire un ausilio nella riabilitazione motoria dei pazienti. Proprio in questa direzione, gli scienziati dello Ias-Lab in collaborazione con il dipartimento di Neuroscienze di Padova stanno studiando il modo di perfezionare il controllo di robot indossabili, gli esoscheletri. In particolare, stanno cercando di capire come ottenere dei segnali dai muscoli e dal cervello per poter controllare in modo diretto queste apparecchiature che attualmente si muovono solo in maniera pre-programmata. Tutte tecnologie che potrebbero influire sullo stato di salute del paziente, ma anche in maniera significativa sulla qualità di vita.

Monica Panetto