Testa umana robot con emoticon a raggera
Comunicazioni

L'IA riconosce davvero le nostre emozioni ?

English version

09.07.2025

Un recente studio condotto da Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova, pubblicato su «Royal Society Open Science», rivela che i modelli di IA generativa possono emulare le reazioni emotive umane di fronte a scene visive. Nonostante non fossero addestrati specificamente per questo compito, i sistemi di IA hanno dimostrato, infatti, una sorprendente corrispondenza con le valutazioni emotive degli esseri umani. L'intelligenza artificiale sta iniziando, dunque, a riconoscere non solo le parole, ma anche le nostre risposte emotive. Le descrizioni testuali delle immagini utilizzate per addestrare i modelli di IA generativa moderni contengono, allora, informazioni non solo sul contenuto semantico delle immagini, ma anche sullo stato emotivo delle persone che forniscono tali descrizioni.

Questo è quanto emerge dalla ricerca condotta dal team dell'Università di Padova. Zaira Romeo del CNR e Alberto Testolin dell'Università di Padova nel loro studio "Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes", pubblicato sulla rivista «Royal Society Open Science», hanno testato diversi modelli linguistici multimodali di grandi dimensioni per verificare se fossero in grado di emulare le reazioni emotive umane a varie scene visive.
Le valutazioni fornite dall'IA hanno mostrato una notevole corrispondenza con quelle umane, anche se i sistemi non erano stati specificamente addestrati per giudizi emozionali sulle immagini. Questo suggerisce che il linguaggio può supportare lo sviluppo di concetti emotivi nei sistemi di IA, sollevando questioni su come queste tecnologie potranno essere utilizzate in contesti sensibili come l'assistenza agli anziani, l'istruzione e il supporto alla salute mentale.

L'autrice e l'autore esaminando le risposte di sistemi di IA generativa come GPT, Gemini e Claude a domande sul contenuto emotivo di immagini standardizzate, hanno riscontrato che le valutazioni dell'IA si allineavano strettamente con quelle umane, con GPT che forniva le risposte più allineate, pur tendendo a sovrastimare i giudizi umani per stimoli emotivamente intensi. Spesso, l'IA dichiarava esplicitamente di indovinare la risposta basandosi su ciò che un umano medio avrebbe detto.
Le IA sono state testate su tre dimensioni affettive fondamentali (piacevolezza, tendenza all’allontanamento/avvicinamento, attivazione) e su sei emozioni di base (felicità, rabbia, paura, tristezza, disgusto, sorpresa).

Questo è stato il primo studio nel quale le risposte dell'IA sono state confrontate esplicitamente con i giudizi emotivi umani, e il risultato apre indubbiamente una nuova prospettiva sulle capacità emotive di questi sistemi. Tuttavia, precisano l'autrice e l'autore, l'abilità dell'IA di emulare i giudizi emotivi umani non implica che essa provi emozioni. È probabile, infatti, che le descrizioni testuali delle immagini utilizzate per addestrare i sistemi siano così ricche da trasmettere informazioni sullo stato emotivo del descrittore umano.

«Attenzione però, il fatto che l’IA riesca ad emulare accuratamente i nostri giudizi emotivi non implica affatto che abbia la facoltà di provare emozioni - sottolineano Zaira Romeo e Alberto Testolin -. La spiegazione più plausibile è che le descrizioni testuali delle immagini utilizzate per addestrare questi sistemi siano estremamente ricche ed informative, al punto da riuscire a trasmettere non solo l’informazione sul contenuto semantico dell’immagine, ma anche sullo stato emotivo della persona che ha fornito la descrizione. Questa ipotesi è ben allineata con le teorie psicologiche che sottolineano l’importanza del linguaggio nel dare forma al pensiero e strutturare il mondo che abitiamo, incluso lo sviluppo delle nostre emozioni. Allo stesso tempo questa ricerca solleva anche importanti interrogativi su come si potranno impiegare le future tecnologie di IA in contesti sempre più sensibili come l’assistenza agli anziani, l’istruzione ed il supporto alla salute mentale - concludono -. Oltre ad essere in grado di comprendere il contenuto emotivo di una situazione dovremmo infatti assicurarci che il comportamento adottato dall’IA in questi contesti sia sempre allineato con il nostro sistema di valori etici e morali».

Si aprono, allora, ancora una volta, nuovi interrogativi etici e morali su come le future tecnologie di IA potranno essere utilizzate in contesti sensibili, assicurandosi che il loro comportamento sia sempre allineato ai nostri valori.