Uno studio condotto dal Tow Center for Digital Journalism della Columbia Journalism School ha rivelato gravi mancanze nell’accuratezza delle citazioni generate da ChatGPT, cosa che non ha mancato si suscitare preoccupazioni da parte degli editori. L’analisi si è concentrata su come il chatbot attribuisce e cita le fonti e ha coinvolto sia editori che collaborano con OpenAI che quelli che hanno scelto di bloccare il suo crawler.
Gli errori di ChatGPT
I risultati evidenziano come ChatGPT spesso fallisca nell’identificare correttamente le fonti originali dei contenuti. In molti casi il modello attribuirebbe erroneamente le citazioni, collegherebbe informazioni a versioni plagiate o ripubblicate e, talvolta, menzionerebbe delle fonti inesistenti. Questo problema sembrerebbe essere indipendente dalla politica degli editori riguardo al crawling di OpenAI, aspetto che sottolineerebbe un problema strutturale nel funzionamento del modello.
Da un lato, gli editori che collaborano con OpenAI consentendo l’accesso ai loro contenuti non vedono necessariamente un miglioramento nella precisione delle citazioni. Dall’altro, coloro che limitano l’accesso tramite blocchi ai crawler non riuscirebbero comunque a prevenire l’uso inappropriato dei loro contenuti. ChatGPT sembrerebbe quindi mancare di trasparenza nel modo in cui attinge alle informazioni e le attribuisce agli autori.
Un problema per chi crea contenuti di qualità
Casper Grathwohl, Presidente di Oxford Languages, ha sottolineato che la mancanza di citazioni accurate da parte di strumenti come ChatGPT potrebbe riflettere le attuali difficoltà del giornalismo digitale. L’errata attribuzione delle fonti mina infatti la fiducia sia nei modelli linguistici avanzati che nel giornalismo stesso. Questo perché i contenuti originali non riceverebbero il riconoscimento atteso.
Lo studio solleva così pesanti interrogativi sul futuro della collaborazione tra intelligenza artificiale e industria editoriale. Nonostante OpenAI abbia affermato di lavorare a stretto contatto con gli editori per migliorare la trasparenza e la precisione degli output, i risultati dell’analisi suggeriscono un ripensamento delle policy e delle tecnologie utilizzate per garantire un uso responsabile dei contenuti.