back to top

ChatGPT cita fonti sbagliate

Uno studio condotto dal Tow Center for Digital Journalism della Columbia Journalism School ha rivelato gravi mancanze nell’accuratezza delle citazioni generate da ChatGPT, cosa che non ha mancato si suscitare preoccupazioni da parte degli editori. L’analisi si รจ concentrata su come il chatbot attribuisce e cita le fonti e ha coinvolto sia editori che collaborano con OpenAI che quelli che hanno scelto di bloccare il suo crawler.

Gli errori di ChatGPT

I risultati evidenziano come ChatGPT spesso fallisca nell’identificare correttamente le fonti originali dei contenuti. In molti casi il modello attribuirebbe erroneamente le citazioni, collegherebbe informazioni a versioni plagiate o ripubblicate e, talvolta, menzionerebbe delle fonti inesistenti. Questo problema sembrerebbe essere indipendente dalla politica degli editori riguardo al crawling di OpenAI, aspetto che sottolineerebbe un problema strutturale nel funzionamento del modello.

Pubblicitร 

Da un lato, gli editori che collaborano con OpenAI consentendo l’accesso ai loro contenuti non vedono necessariamente un miglioramento nella precisione delle citazioni. Dall’altro, coloro che limitano l’accesso tramite blocchi ai crawler non riuscirebbero comunque a prevenire l’uso inappropriato dei loro contenuti. ChatGPT sembrerebbe quindi mancare di trasparenza nel modo in cui attinge alle informazioni e le attribuisce agli autori.

Un problema per chi crea contenuti di qualitร 

Casper Grathwohl, Presidente di Oxford Languages, ha sottolineato che la mancanza di citazioni accurate da parte di strumenti come ChatGPT potrebbe riflettere le attuali difficoltร  del giornalismo digitale. L’errata attribuzione delle fonti mina infatti la fiducia sia nei modelli linguistici avanzati che nel giornalismo stesso. Questo perchรฉ i contenuti originali non riceverebbero il riconoscimento atteso.

Lo studio solleva cosรฌ pesanti interrogativi sul futuro della collaborazione tra intelligenza artificiale e industria editoriale. Nonostante OpenAI abbia affermato di lavorare a stretto contatto con gli editori per migliorare la trasparenza e la precisione degli output, i risultati dell’analisi suggeriscono un ripensamento delle policy e delle tecnologie utilizzate per garantire un uso responsabile dei contenuti.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicitร 
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

Wikipedia: se volete i nostri contenuti per l’AI dovete pagarli

La Wikimedia Foundation, l'organizzazione no profit che gestisce Wikipedia,...

Opal, l’AI di Google crea mini-app in tutto il mondo

Google Labs ha annunciato l'espansione in tutto il mondo...

GPT-5-Codex-Mini, il nuovo modello di OpenAI per il vibe coding

OpenAI ha il rilasciato GPT-5-Codex-Mini, una versione piรน compatta...

Meta lancia Vibesin Europa, il feed video generato dalla AI

Meta conferma il lancio europeo di Vibes, un feed...

Chrome su iOS e Android con accesso diretto all’AI Mode

Dopo il debutto su desktop avvenuto a marzo, Google...
Pubblicitร