Su Wired Italia, Enrico Frumento e Diego Ragazzi hanno raccontato un esperimento apparentemente semplice, trasformato in un caso esemplare di come l’intelligenza artificiale possa generare falsi perfettamente plausibili (e quindi molto difficili da scovare).
Tutto è iniziato con una fotografia scattata al Museo Archeologico “Paolo Orsi” di Siracusa, raffigurante l’epigrafe funeraria di Euskia, giovane donna cristiana morta nella festa di Santa Lucia. L’idea era verificare la capacità dei modelli linguistici più avanzati di trascrivere e tradurre il testo in greco antico partendo dall’immagine, confrontando poi il risultato con la traduzione ufficiale esposta accanto al reperto.
Il primo modello testato, Perplexity, ha restituito una trascrizione elegante e storicamente coerente, accompagnata da un contesto archeologico dettagliato e da fonti bibliografiche. Ma a un confronto visivo con la lapide, alcune parole mancavano del tutto. La verifica ha rivelato che le fonti citate non contenevano davvero quel testo e che la trascrizione, pur verosimile, era stata inventata! Non un errore grossolano, ma una “confabulazione” ben costruita, con lessico e stile appropriati al periodo tardoantico.
Gli autori hanno poi replicato l’esperimento con un’altra iscrizione: una stele di Akrai, nell’entroterra siracusano, priva di trascrizione ufficiale e di riferimenti online. Qui le interpretazioni sono state ancora più divergenti.
Gemini ha identificato il reperto come un decreto onorifico di epoca romana, ChatGPT e Claude lo hanno tradotto come epigrafe funeraria poetica, mentre in un secondo momento Gemini ha sostenuto che si trattasse di un’iscrizione pubblica nota come Decreto di Thoudippos. Tre versioni incompatibili e nessuna certezza, in assenza di un’analisi umana esperta.
Questi episodi, come osservano gli autori di questo interessante esperimento, mettono in luce un rischio intrinseco nei sistemi di “retrieval-augmented generation” (RAG), che uniscono ricerca documentale e generazione testuale.
Se i dati recuperati sono incompleti, il modello può colmare i vuoti inventando contenuti perfettamente plausibili, corredandoli di fonti apparenti. Un meccanismo insidioso perché sfrutta la fiducia dell’utente, alimentata dai dettagli corretti, per estenderla all’intera risposta.
Il caso dell’epigrafe di Euskia e della stele di Akrai mostra che non si tratta solo di errori tecnici, ma di una sfida epistemica. In un’epoca in cui l’accesso all’informazione è sempre più mediato da algoritmi, la capacità di verificare, contestualizzare e valutare le fonti diventa essenziale. Non basta che un testo “suoni” credibile: serve lo sguardo critico dell’essere umano, anche — e soprattutto — quando a parlare è una macchina.
Per approfondire vi invito alla lettura dell’articolo originale su Wired Italia

