DALL·E 3 è la versione più recente del modello a diffusione di OpenAI che consente di creare immagini a partire da prompt testuali (text-to-image). Si tratta di una piattaforma diffusamente utilizzata anche perché alla base di altri servizi, come per esempio Microsoft Designer, e soprattutto per la sua capacità di restituire output fotorealistici.
Come distinguere le immagini prodotte da DALL·E 3 da quelle che ritraggono soggetti reali o vengono realizzate con altre soluzioni animate dall’Inteligenza Artificiale? Per rispondere a questa domanda Sam Altman e soci hanno rilasciato uno strumento che dovrebbe essere in grado di riconoscere gli output di DALL·E 3 almeno nel 98% dei casi.
Questo tool è stato presentato come un classificatore (detection classifier) cioè un’applicazione in grado di analizzare un’immagine e di identificare tutti gli elementi che sono propri di un contenuto sintetico. Attualmente esso non è disponibile pubblicamente ma è al centro di una sperimentazione che coinvolge un numero ristretto di tester.
Introducing a new classifier to help researchers identify content created by DALL·E 3.
We are also joining the Coalition for Content Provenance and Authenticity (@C2PA_org) Steering Committee to promote industry standards. https://t.co/drgdTruJEf
— OpenAI (@OpenAI) May 7, 2024
Il classificatore di OpenAI non sarebbe capace soltanto di riconoscere gli output di DALL·E 3, infatti i test avrebbero evidenziato anche una percentuale molto bassa di falsi positivi (appena lo 0.5%) nell’individuazione delle immagini autentiche. Vi sarebbero però dei casi in cui quelle sintetiche risulterebbero più difficili da distinguere.
Lo strumento si sarebbe rivelato efficace anche nei casi di alterazioni dovute all’applicazione di tagli, a modifiche della saturazione e alla compressione. Il rumore gaussiamo rappresenterebbe invece un elemento di disturbo, stesso discorso per quanto riguarda le immagini prodotte con altri modelli che verrebbero riconosciute in non più del 5 o 10% dei casi.