OpenAI, l’organizzazione no profit che ha creato il modello generativo GPT e il chatbot ChatGPT, ha deciso di ritirare il tool che aveva lanciato per permettere agli esseri umani di riconoscere i contenuti prodotti dalle AI. Le ragioni di questa iniziativa sono abbastanza semplici: lo strumento non si sarebbe dimostrato abbastanza efficace.
Tecnicamente parlando questa applicazione avrebbe dovuto agire da classificatore, distinguendo ciò che è stato creato da una macchina da ciò che è stato scritto da un autore in carne ed ossa. Il suo tasso di precisione si sarebbe dimostrato però poco elevato e Sam Altman e soci dovranno trovare una soluzione alternativa per lo stesso scopo.
A parziale giustificazione di OpenAI, che in questo caso sembrerebbe essere stata vittima della sua stessa creatura, vi è il fatto che il classificatore è stato presentato sin da subito come un tool molto limitato, poco abile ad esempio nel classificare i testi al di sotto delle mille parole o quelli troppo lunghi così come quelli realizzati in lingue diverse dall’Inglese.
In sostanza l’applicazione avrebbe dato luogo ad un numero eccessivo di falsi positivi, soprattutto nell’attribuire ad un’Intelligenza Artificiale ciò che nella realtà era stato scritto da una persona. Risulta quindi abbastanza chiaro che non sarebbe stato possibile utilizzarlo per la verifica di testi scientifici o elaborati di studenti in ambito scolastico.
Dunque, siamo già giunti al punto in cui le AI sono talmente "intelligenti" da ingannare persino sé stesse? Può darsi o forse ci siamo molto vicini, ma è anche vero che lo sviluppo dei modelli generativi si avvale di finaziamenti molto più ingenti rispetto a quelli destinati alla creazione di strumenti che sarebbero utili per il loro controllo.