back to top

ChatGPT cita fonti sbagliate

Uno studio condotto dal Tow Center for Digital Journalism della Columbia Journalism School ha rivelato gravi mancanze nell’accuratezza delle citazioni generate da ChatGPT, cosa che non ha mancato si suscitare preoccupazioni da parte degli editori. L’analisi si รจ concentrata su come il chatbot attribuisce e cita le fonti e ha coinvolto sia editori che collaborano con OpenAI che quelli che hanno scelto di bloccare il suo crawler.

Gli errori di ChatGPT

I risultati evidenziano come ChatGPT spesso fallisca nell’identificare correttamente le fonti originali dei contenuti. In molti casi il modello attribuirebbe erroneamente le citazioni, collegherebbe informazioni a versioni plagiate o ripubblicate e, talvolta, menzionerebbe delle fonti inesistenti. Questo problema sembrerebbe essere indipendente dalla politica degli editori riguardo al crawling di OpenAI, aspetto che sottolineerebbe un problema strutturale nel funzionamento del modello.

Pubblicitร 

Da un lato, gli editori che collaborano con OpenAI consentendo l’accesso ai loro contenuti non vedono necessariamente un miglioramento nella precisione delle citazioni. Dall’altro, coloro che limitano l’accesso tramite blocchi ai crawler non riuscirebbero comunque a prevenire l’uso inappropriato dei loro contenuti. ChatGPT sembrerebbe quindi mancare di trasparenza nel modo in cui attinge alle informazioni e le attribuisce agli autori.

Un problema per chi crea contenuti di qualitร 

Casper Grathwohl, Presidente di Oxford Languages, ha sottolineato che la mancanza di citazioni accurate da parte di strumenti come ChatGPT potrebbe riflettere le attuali difficoltร  del giornalismo digitale. L’errata attribuzione delle fonti mina infatti la fiducia sia nei modelli linguistici avanzati che nel giornalismo stesso. Questo perchรฉ i contenuti originali non riceverebbero il riconoscimento atteso.

Lo studio solleva cosรฌ pesanti interrogativi sul futuro della collaborazione tra intelligenza artificiale e industria editoriale. Nonostante OpenAI abbia affermato di lavorare a stretto contatto con gli editori per migliorare la trasparenza e la precisione degli output, i risultati dell’analisi suggeriscono un ripensamento delle policy e delle tecnologie utilizzate per garantire un uso responsabile dei contenuti.

Iscriviti a Google News Per restare sempre aggiornato seguici su Google News! Seguici
Pubblicitร 
Claudio Garau
Claudio Garau
Web developer, programmatore, Database Administrator, Linux Admin, docente e copywriter specializzato in contenuti sulle tecnologie orientate a Web, mobile, Cybersecurity e Digital Marketing per sviluppatori, PA e imprese.

Leggi anche...

R1-Omni: l’AI di Alibaba che interpreta le emozioni umane

Il team Tongyi Lab di Alibaba ha annunciato il...

OpenAI rilascia nuovi tool per la creazione di Agenti AI

Nelle scorse ore OpenAI ha annunciato una serie di...

Browser Use permette agli agenti AI di navigare sul Web (da soli)

Manus, la piattaforma AI agent della startup cinese Butterfly...

Meta: il chip per l’AI ce lo facciamo da soli

Meta sta testando il suo primo chip progettato internamente...

Manus: l’agente AI cinese completamente autonomo

Manus รจ il primo sistema AI in grado di...

ChatGPT per macOS “collabora” con le app di sviluppo e scrittura

ChatGPT per macOS offre ora la nuova funzionalitร  Work...
Pubblicitร