Autismo e emozioni, l’Intelligenza Artificiale svela i loro codici

Unitn: studio apre nuovi scenari per migliorare vita relazionale

MAG 19, 2021 -

Roma, 19 mag. (askanews) – Le emozioni sono un linguaggio universale e solitamente possono essere riconosciute con facilità e naturalezza. Non è così per le persone affette da disturbi dello spettro autistico (Autism Spectrum Disorder – ASD) per le quali questa semplice attività risulta molto limitata, nel migliore dei casi. La ragione di questa difficoltà è da anni al centro di studi scientifici che provano a far luce sul funzionamento del cervello negli individui affetti da questi disturbi. Uno studio dell’Università di Trento e della Stony Brook University di New York pubblicato pochi giorni fa in versione pre-print sulla rivista Biological Psychiatry: Cognitive Neuroscience and Neuroimaging mette in discussione molte convinzioni e apre a nuovi scenari per migliorare le condizioni di vita e le relazioni sociali delle persone con ASD.

Leggere le espressioni facciali e decodificare le emozioni è effettivamente difficile per chi è affetto da disturbi dello spettro autistico. Ma la ragione non sta nella capacità di codifica dei segnali neurali da parte del cervello – come si è sempre pensato – quanto piuttosto nei problemi nella traduzione delle informazioni. Un problema che in questo periodo si acuisce anche a causa delle misure di contenimento della pandemia. “Particolarmente adesso l’uso costante di mascherine di protezione – spiega Matthew D. Lerner, coautore dello studio e docente di Psicologia, Psichiatria e Pediatria alla Stony Brook University – limita l’espressività del viso e questo comporta una minore disponibilità di informazioni sulle nostre emozioni. Ecco perché è importante capire come, quando e per chi emergano difficoltà di comprensione, quali siano i meccanismi alla base del fraintendimento”.

Le conclusioni dello studio – informa Unitn – sono frutto di un lungo lavoro di analisi che ha impiegato tecniche di apprendimento automatico e potrebbero essere utili per rivedere l’approccio con cui si aiutano le persone con ASD a leggere le emozioni altrui. “Al momento si tende a utilizzare protesi per il riconoscimento delle emozioni che aiutano la percezione visiva del movimento biologico. I nostri risultati suggeriscono che bisognerebbe concentrarsi invece su come aiutare il cervello a trasmettere una codifica intatta del messaggio che veicola l’emozione correttamente percepita”.

Lo studio è stato condotto congiuntamente da un gruppo di ricercatori e ricercatrici della Stony Brook University di New York e dell’Università di Trento (Dipartimento di Ingegneria e Scienze dell’Informazione) su 192 persone di età diverse con e senza disturbi dello spettro autistico. I loro segnali neurali sono stati registrati durante la visualizzazione di molte emozioni facciali e successivamente analizzati. Per farlo, il gruppo di ricerca ha impiegato un nuovo sistema di classificazione delle emozioni facciali che sfrutta l’apprendimento automatico, denominato Deep Convolutional Neural Networks. Questo approccio “machine learning” include un algoritmo che permette di analizzare e classificare l’attività del cervello mentre osserva i volti, rilevata tramite elettroencefalografia (EEG). Il risultato è una mappa molto accurata dei modelli neurali che il cervello di ogni persona applica per decodificare le emozioni.

“Le tecnologie derivate dal machine learning sono generalmente considerate un motore di innovazione dei processi e dei prodotti in tutti i settori industriali”, commenta Giuseppe Riccardi, coautore dello studio e docente di Sistemi di elaborazione delle informazioni all’Università di Trento (Dipartimento di Ingegneria e Scienza dell’Informazione). “Ed è evidente anche in questo caso. Le tecniche di apprendimento automatico possono aiutarci nell’interpretazione dei segnali cerebrali nel contesto dell’emozioni. Innanzitutto possono essere determinanti nel supportare le prime fasi della ricerca scientifica di base. Ma possono anche essere impiegate direttamente per interventi clinici. Lo studio che abbiamo condotto mostra quanto sia necessaria una forte integrazione tra competenze interdisciplinari affinché l’intelligenza artificiale abbia un impatto misurabile sulla vita delle persone”.

Il lavoro è stato in parte finanziato tramite una sovvenzione del National Institute of Mental Health (NIMH) e dalla National Science Foundation. Inoltre è stato supportato dall’American Psychological Association, dall’American Psychological Foundation, dalla Jefferson Scholars Foundation, dall’Alan Alda Fund for Communication e dall’Association for Psychological Science. Il lavoro è stato supportato dai finanziamenti della ricerca dell’Università’ di Trento e dalle risorse di del centro High performance Computing di Ateneo.