LLM: le AI sono più empatiche degli esseri umani?

Un recente studio pubblicato su Communications Psychology ha esaminato la capacità degli LLM (Large Language Models) di risolvere e creare test di intelligenza emotiva, confrontandoli con le prestazioni umane. La ricerca si è articolata in due fasi principali, un incentrata sulle performance, l’altra sulla creazione di nuovi testi.

Gli LLM hanno un'”empatia cognitiva”

Nel corso dello studio sei LLM (GPT-4, GPT-o1, Gemini 1.5 flash, Copilot 365, Claude 3.5 Haiku e DeepSeek V3) sono stati messi alla prova su cinque test standardizzati di intelligenza emotiva e i risultati sarebbero stati per molti versi sorprendenti. I modelli avrebbero raggiunto infatti un’accuratezza media dell’81% superando la media umana del 56% riportata negli studi di validazione originali.

Pubblicità

GPT-4 è stato poi utilizzato per generare nuovi elementi di studio per ciascuno dei cinque test. Questi test generati dall’AI sono stati poi somministrati a 467 partecipanti umani attraverso cinque studi separati. I risultati avrebbero così mostrato che i test originali e quelli creati da GPT sono statisticamente equivalenti in termini di difficoltà. Sarebbero però emerse alcune differenze per quanto riguarda la chiarezza percepita, il realismo, la diversità dei contenuti, la consistenza interna e le correlazioni con altri test.

In ogni caso tutti gli LLM avrebbero mostrato prestazioni superiori a quelle degli esseri umani. Lo studio suggerirebbe quindi che gli LLM possiedono una forma di empatia cognitiva con conoscenze accurate sulle emozioni umane e sulla loro regolazione. Ciò potrebbe avere delle implicazioni importanti per l’utilizzo dell’AI i settori legati all’assistenza sanitaria, all’educazione e al servizio clienti. Dove gli LLM sembrerebbero essere in grado fornire un supporto emotivo di buon livello.

Limitazioni e Prospettive Future

Lo studio presenterebbe però alcune limitazioni. I test sono stati condotti infatti in un contesto culturale occidentale e utilizzando degli scenari standardizzati che potrebbero non riflettere la vera complessità delle interazioni emotive reali. La natura “black box” (quindi chiusa) degli LLM rende inoltre difficile comprendere come arrivino a generare loro risposte.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

L’US Air Force rivoluziona i droni con software AI in volo

L'US Air Force ha recentemente compiuto un'importante innovazione nel...

Anthropic accusa le cinesi DeepSeek, Moonshot e MiniMax di “distillazione” del modello Claude

Recentemente, Anthropic ha lanciato accuse gravi contro tre aziende...

ChatGPT introduce l’opzione ‘Naughty chats’ per adulti

OpenAI sta ridefinendo il ruolo degli assistenti digitali con...

Prompt injection e SEO “tossica”: come si manipolano i chatbot

Un recente esperimento ha riportato l'attenzione su una vulnerabilità...

Donna accusata di pianificare omicidi con ChatGPT

In Corea del Sud una donna di 21 anni...

Parlamento europeo: niente AI su tablet e smartphone

Il Parlamento europeo ha deciso di disabilitare le funzionalità...
Pubblicità