Come distinguere un contenuto scritto da un essere umano da quello generato da un’AI come ChatGPT? Come scoprire se una studente ha realizzato la sua tesina con un chatbot? Gli sviluppatori di OpenAI si sono posti questo problema e hanno trovato una soluzioni grazie all’inserimento di una sorta di watermak (o filigrana) all’interno dei testi prodotti artificialmente.
Cos’è un watermark?
Un watermark, o filigrana, è una sorta di firma digitale inserita all’interno di un contenuto digitale. Nel contesto della generazione di testi tramite AI, il watermark è rappresentato da un pattern (modello) nell’uso delle parole e delle strutture linguistiche, che, se analizzato, può rivelare l’origine artificiale del contenuto. Il processo si basa su un sistema probabilistico: l’AI seleziona parole e frasi seguendo uno schema che, se presente, permette di identificare con la provenienza “non umana” del testo.
Quando questo pattern viene rilevato è possibile affermare, quasi senza ombra di dubbio, che un testo è stato creato dalla piattaforma.
A cosa serve il watermark nei contenuti generati da AI?
Grazie a questo watermak un insegnante potrebbe cogliere immediatamente in fallo gli allievi che hanno deciso di barare, stesso discorso per quanto riguarda una pubblicazione scientifica o un elaborato su commissione. Rimane però il problema che tale funzionalità non è particolarmente gradita agli utilizzatori del servizio.
In altre parole, attraverso il watermark è possibile distinguere i testi originali da quelli generati tramite chatbot.
Il problema dei falsi positivi
Come evitare che testi scritti da esseri umani vengano erroneamente identificati come prodotti da un’AI? E’ una situazione che potrebbe verificarsi? La risposta è “sì”. Può accadere, infatti, che involontariamente un autore “umano” replichi, per puro caso, un pattern tipico di un chatbot. Questo rischio, seppur ridotto , non può essere completamente eliminato. La possibilità di errori, quindi, esiste e deve essere sempre considerata possibile, soprattutto quando si tratta di decisioni con conseguenze significative, come valutazioni accademiche o dispute legali.
Rimuovere il watermark dai testi generati da AI
E’ possibile rimuovere il watermark da un testo generato automaticamente attraverso ChatGPT? Gli utenti più smaliziati non si limitano a fare il “copia e incolla” dei testi generati ma li utilizzano come “punto di partenza”, riformulando o modificando le frasi prodotto artificialmente dal chatbot in modo tale da cercare di eliminare il watermark in esse presente. Questo ha portato molti utenti a utilizzare ChatGPT con maggiore cautela, soprattutto in contesti dove l’originalità del contenuto è strettamente monitorata.
OpenAI non rilascerà lo strumento per identificare il watermark (almeno per il momento)
Stando alle indiscrezioni pubblicate nelle scorse ore dal Wall Street Journal, Sam Altman e soci avrebbero deciso di non distribuire pubblicamente alcuno strumento in grado di scovare i contenuti generati con l’AI. Tale scelta non sarebbe legata al timore di fornire uno strumento inefficace: i test effettuati avrebbero permesso infatti di registrare performance vicine al 99.9%.
Il problema sarebbe un altro, per certi versi più “commerciale”: circa il 30% degli utenti coinvolti nei test di OpenAI, infatti, avrebbero iniziato a utilizzare ChatGPT più raramente per il timore di essere “beccati”. Uno strumento efficace nell’identificare i testi prodotti da ChatGPT, quindi, potrebbe essere un’arma a doppio taglio per l’azienda capitanata da Sam Altman.
Le ragioni di questo fenomeno sono facilmente comprensibili e ci fanno capire quanto attualmente i chatbot siano già largamente utilizzati per produrre testi che vengono proposti come frutto della creatività e della competenza umana.