Un recente studio pubblicato su Communications Psychology ha esaminato la capacità degli LLM (Large Language Models) di risolvere e creare test di intelligenza emotiva, confrontandoli con le prestazioni umane. La ricerca si è articolata in due fasi principali, un incentrata sulle performance, l’altra sulla creazione di nuovi testi.
Gli LLM hanno un'”empatia cognitiva”
Nel corso dello studio sei LLM (GPT-4, GPT-o1, Gemini 1.5 flash, Copilot 365, Claude 3.5 Haiku e DeepSeek V3) sono stati messi alla prova su cinque test standardizzati di intelligenza emotiva e i risultati sarebbero stati per molti versi sorprendenti. I modelli avrebbero raggiunto infatti un’accuratezza media dell’81% superando la media umana del 56% riportata negli studi di validazione originali.
GPT-4 è stato poi utilizzato per generare nuovi elementi di studio per ciascuno dei cinque test. Questi test generati dall’AI sono stati poi somministrati a 467 partecipanti umani attraverso cinque studi separati. I risultati avrebbero così mostrato che i test originali e quelli creati da GPT sono statisticamente equivalenti in termini di difficoltà. Sarebbero però emerse alcune differenze per quanto riguarda la chiarezza percepita, il realismo, la diversità dei contenuti, la consistenza interna e le correlazioni con altri test.
In ogni caso tutti gli LLM avrebbero mostrato prestazioni superiori a quelle degli esseri umani. Lo studio suggerirebbe quindi che gli LLM possiedono una forma di empatia cognitiva con conoscenze accurate sulle emozioni umane e sulla loro regolazione. Ciò potrebbe avere delle implicazioni importanti per l’utilizzo dell’AI i settori legati all’assistenza sanitaria, all’educazione e al servizio clienti. Dove gli LLM sembrerebbero essere in grado fornire un supporto emotivo di buon livello.
Limitazioni e Prospettive Future
Lo studio presenterebbe però alcune limitazioni. I test sono stati condotti infatti in un contesto culturale occidentale e utilizzando degli scenari standardizzati che potrebbero non riflettere la vera complessità delle interazioni emotive reali. La natura “black box” (quindi chiusa) degli LLM rende inoltre difficile comprendere come arrivino a generare loro risposte.