back to top

LLM: le AI sono più empatiche degli esseri umani?

Un recente studio pubblicato su Communications Psychology ha esaminato la capacità degli LLM (Large Language Models) di risolvere e creare test di intelligenza emotiva, confrontandoli con le prestazioni umane. La ricerca si è articolata in due fasi principali, un incentrata sulle performance, l’altra sulla creazione di nuovi testi.

Gli LLM hanno un'”empatia cognitiva”

Nel corso dello studio sei LLM (GPT-4, GPT-o1, Gemini 1.5 flash, Copilot 365, Claude 3.5 Haiku e DeepSeek V3) sono stati messi alla prova su cinque test standardizzati di intelligenza emotiva e i risultati sarebbero stati per molti versi sorprendenti. I modelli avrebbero raggiunto infatti un’accuratezza media dell’81% superando la media umana del 56% riportata negli studi di validazione originali.

Pubblicità

GPT-4 è stato poi utilizzato per generare nuovi elementi di studio per ciascuno dei cinque test. Questi test generati dall’AI sono stati poi somministrati a 467 partecipanti umani attraverso cinque studi separati. I risultati avrebbero così mostrato che i test originali e quelli creati da GPT sono statisticamente equivalenti in termini di difficoltà. Sarebbero però emerse alcune differenze per quanto riguarda la chiarezza percepita, il realismo, la diversità dei contenuti, la consistenza interna e le correlazioni con altri test.

In ogni caso tutti gli LLM avrebbero mostrato prestazioni superiori a quelle degli esseri umani. Lo studio suggerirebbe quindi che gli LLM possiedono una forma di empatia cognitiva con conoscenze accurate sulle emozioni umane e sulla loro regolazione. Ciò potrebbe avere delle implicazioni importanti per l’utilizzo dell’AI i settori legati all’assistenza sanitaria, all’educazione e al servizio clienti. Dove gli LLM sembrerebbero essere in grado fornire un supporto emotivo di buon livello.

Limitazioni e Prospettive Future

Lo studio presenterebbe però alcune limitazioni. I test sono stati condotti infatti in un contesto culturale occidentale e utilizzando degli scenari standardizzati che potrebbero non riflettere la vera complessità delle interazioni emotive reali. La natura “black box” (quindi chiusa) degli LLM rende inoltre difficile comprendere come arrivino a generare loro risposte.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

ChatGPT ci rende più stupidi, lo afferma uno studio del MIT

Un nuovo studio del MIT (Massachusetts Institute of Technology)...

Oltre la metà dello spam è generato tramite AI

Negli corso degli ultimi anni l'intelligenza artificiale ha assunto...

Amazon: l’AI ridurrà i posti di lavoro nei prossimi anni

Il CEO di Amazon Andy Jassy ha dichiarato che...

ChatGPT conferma le teorie del complotto?

Un recente articolo del New York Times ha portato...

Meta AI ha un grosso problema di privacy

Sembrerebbe essere bastato poco perché la nuova applicazione stand-alone...

Gemini riassume i PDF e crea form

Google ha presentato alcune nuove funzionalità dedicate a Gemini...
Pubblicità