back to top

LLM: le AI sono più empatiche degli esseri umani?

Un recente studio pubblicato su Communications Psychology ha esaminato la capacità degli LLM (Large Language Models) di risolvere e creare test di intelligenza emotiva, confrontandoli con le prestazioni umane. La ricerca si è articolata in due fasi principali, un incentrata sulle performance, l’altra sulla creazione di nuovi testi.

Gli LLM hanno un'”empatia cognitiva”

Nel corso dello studio sei LLM (GPT-4, GPT-o1, Gemini 1.5 flash, Copilot 365, Claude 3.5 Haiku e DeepSeek V3) sono stati messi alla prova su cinque test standardizzati di intelligenza emotiva e i risultati sarebbero stati per molti versi sorprendenti. I modelli avrebbero raggiunto infatti un’accuratezza media dell’81% superando la media umana del 56% riportata negli studi di validazione originali.

Pubblicità

GPT-4 è stato poi utilizzato per generare nuovi elementi di studio per ciascuno dei cinque test. Questi test generati dall’AI sono stati poi somministrati a 467 partecipanti umani attraverso cinque studi separati. I risultati avrebbero così mostrato che i test originali e quelli creati da GPT sono statisticamente equivalenti in termini di difficoltà. Sarebbero però emerse alcune differenze per quanto riguarda la chiarezza percepita, il realismo, la diversità dei contenuti, la consistenza interna e le correlazioni con altri test.

In ogni caso tutti gli LLM avrebbero mostrato prestazioni superiori a quelle degli esseri umani. Lo studio suggerirebbe quindi che gli LLM possiedono una forma di empatia cognitiva con conoscenze accurate sulle emozioni umane e sulla loro regolazione. Ciò potrebbe avere delle implicazioni importanti per l’utilizzo dell’AI i settori legati all’assistenza sanitaria, all’educazione e al servizio clienti. Dove gli LLM sembrerebbero essere in grado fornire un supporto emotivo di buon livello.

Limitazioni e Prospettive Future

Lo studio presenterebbe però alcune limitazioni. I test sono stati condotti infatti in un contesto culturale occidentale e utilizzando degli scenari standardizzati che potrebbero non riflettere la vera complessità delle interazioni emotive reali. La natura “black box” (quindi chiusa) degli LLM rende inoltre difficile comprendere come arrivino a generare loro risposte.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicità
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

Meno metaverso e più AI nel futuro di Meta

Meta ha programmato una revisione della propria strategia aziendale...

ChatGPT ha compiuto 3 anni

Il 30 novembre 2022 OpenAI presentava al pubblico un...

ChatGPT può fare tutto? Prova a chiedergli che ore sono..

Quando si interagisce con un'AI, come quella che permette...

DeepSeek svelerà i segreti dell’universo

Il gruppo cinese DeepSeek, già noto per aver introdotto...

La memoria RAM diventa sempre più costosa a causa dell’AI

Il successo dell'intelligenza artificiale sta provocando forti tensioni sul...

ChatGPT: modalità vocale e chat testuale in un’unica interfaccia

OpenAI ha rilasciato un nuovo aggiornamento per ChatGPT Voice,...
Pubblicità