back to top

LLM: le AI sono più empatiche degli esseri umani?

Un recente studio pubblicato su Communications Psychology ha esaminato la capacità degli LLM (Large Language Models) di risolvere e creare test di intelligenza emotiva, confrontandoli con le prestazioni umane. La ricerca si è articolata in due fasi principali, un incentrata sulle performance, l’altra sulla creazione di nuovi testi.

Gli LLM hanno un'”empatia cognitiva”

Nel corso dello studio sei LLM (GPT-4, GPT-o1, Gemini 1.5 flash, Copilot 365, Claude 3.5 Haiku e DeepSeek V3) sono stati messi alla prova su cinque test standardizzati di intelligenza emotiva e i risultati sarebbero stati per molti versi sorprendenti. I modelli avrebbero raggiunto infatti un’accuratezza media dell’81% superando la media umana del 56% riportata negli studi di validazione originali.

Pubblicità

GPT-4 è stato poi utilizzato per generare nuovi elementi di studio per ciascuno dei cinque test. Questi test generati dall’AI sono stati poi somministrati a 467 partecipanti umani attraverso cinque studi separati. I risultati avrebbero così mostrato che i test originali e quelli creati da GPT sono statisticamente equivalenti in termini di difficoltà. Sarebbero però emerse alcune differenze per quanto riguarda la chiarezza percepita, il realismo, la diversità dei contenuti, la consistenza interna e le correlazioni con altri test.

In ogni caso tutti gli LLM avrebbero mostrato prestazioni superiori a quelle degli esseri umani. Lo studio suggerirebbe quindi che gli LLM possiedono una forma di empatia cognitiva con conoscenze accurate sulle emozioni umane e sulla loro regolazione. Ciò potrebbe avere delle implicazioni importanti per l’utilizzo dell’AI i settori legati all’assistenza sanitaria, all’educazione e al servizio clienti. Dove gli LLM sembrerebbero essere in grado fornire un supporto emotivo di buon livello.

Limitazioni e Prospettive Future

Lo studio presenterebbe però alcune limitazioni. I test sono stati condotti infatti in un contesto culturale occidentale e utilizzando degli scenari standardizzati che potrebbero non riflettere la vera complessità delle interazioni emotive reali. La natura “black box” (quindi chiusa) degli LLM rende inoltre difficile comprendere come arrivino a generare loro risposte.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

ChatGPT cancella due anni di lavoro accademico

Un grave incidente legato alla perdita dei dati avrebbe...

Microsoft: l’AI deve ancora dimostrare la sua utilità

Durante il World Economic Forum 2026 di Davos, Satya...

OpenAI potrebbe fallire entro il 2027, lo dicono alcuni analisti

OpenAI, uno dei principali protagonisti della corsa all'intelligenza artificiale,...

Google: i modelli di AI cinesi sono vicinissimi agli standard occidentali

Secondo Demis Hassabis, CEO di Google DeepMind e responsabile...

Google TranslateGemma: l’AI che traduce in 55 lingue differenti

Google ha presentato TranslateGemma, una nuova suite di modelli...

ChatGPT Go, l’abbonamento economico a ChatGPT

ChatGPT Go è un nuovo piano di abbonamento pensato...
Pubblicità