ChatGPT cita fonti sbagliate

Uno studio condotto dal Tow Center for Digital Journalism della Columbia Journalism School ha rivelato gravi mancanze nell’accuratezza delle citazioni generate da ChatGPT, cosa che non ha mancato si suscitare preoccupazioni da parte degli editori. L’analisi si รจ concentrata su come il chatbot attribuisce e cita le fonti e ha coinvolto sia editori che collaborano con OpenAI che quelli che hanno scelto di bloccare il suo crawler.

Gli errori di ChatGPT

I risultati evidenziano come ChatGPT spesso fallisca nell’identificare correttamente le fonti originali dei contenuti. In molti casi il modello attribuirebbe erroneamente le citazioni, collegherebbe informazioni a versioni plagiate o ripubblicate e, talvolta, menzionerebbe delle fonti inesistenti. Questo problema sembrerebbe essere indipendente dalla politica degli editori riguardo al crawling di OpenAI, aspetto che sottolineerebbe un problema strutturale nel funzionamento del modello.

Pubblicitร 

Da un lato, gli editori che collaborano con OpenAI consentendo l’accesso ai loro contenuti non vedono necessariamente un miglioramento nella precisione delle citazioni. Dall’altro, coloro che limitano l’accesso tramite blocchi ai crawler non riuscirebbero comunque a prevenire l’uso inappropriato dei loro contenuti. ChatGPT sembrerebbe quindi mancare di trasparenza nel modo in cui attinge alle informazioni e le attribuisce agli autori.

Un problema per chi crea contenuti di qualitร 

Casper Grathwohl, Presidente di Oxford Languages, ha sottolineato che la mancanza di citazioni accurate da parte di strumenti come ChatGPT potrebbe riflettere le attuali difficoltร  del giornalismo digitale. L’errata attribuzione delle fonti mina infatti la fiducia sia nei modelli linguistici avanzati che nel giornalismo stesso. Questo perchรฉ i contenuti originali non riceverebbero il riconoscimento atteso.

Lo studio solleva cosรฌ pesanti interrogativi sul futuro della collaborazione tra intelligenza artificiale e industria editoriale. Nonostante OpenAI abbia affermato di lavorare a stretto contatto con gli editori per migliorare la trasparenza e la precisione degli output, i risultati dell’analisi suggeriscono un ripensamento delle policy e delle tecnologie utilizzate per garantire un uso responsabile dei contenuti.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicitร 
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

OpenAI e il nuovo smartphone con AI agentica: tutto quello che sappiamo

OpenAI, nota per i suoi sviluppi pionieristici nel campo...

Canonical presenta i piani AI per Ubuntu: inferenza locale e trasparenza

Canonical, la societร  dietro la popolare distribuzione Linux Ubuntu,...

Meta avvia la raccolta dati per migliorare l’IA: come funziona il programma MCI

Meta ha lanciato un ambizioso programma di raccolta dati...

Anthropic avvia un’indagine su accessi non autorizzati a Claude Mythos

Recenti eventi hanno messo in luce le vulnerabilitร  legate...

Google Workspace introduce lโ€™AI per semplificare il lavoro con Claude di Anthropic

Google Workspace ha recentemente annunciato lโ€™integrazione di unโ€™intelligenza artificiale...

Come usare l’intelligenza artificiale per migliorare la memoria con ChatGPT e Claude

Lโ€™impiego dellโ€™intelligenza artificiale (IA) sta rapidamente cambiando il nostro...
Pubblicitร