Con il progredire delle Intelligenze Artificiali e dei modelli generativi diventa sempre più difficile distinguere un testo prodotto da un chatbot da quello scritto da un essere umano. Si tratta di un problema non da poco considerando che soluzioni come ChatGPT sono già utilizzate ampiamente per realizzare tesine e altri contenuti in ambito scolastico ed universitario.
Le AI possono essere utilizzate anche per realizzare campagne di disinformazione molto credibili, per questo motivo alcuni ricercatori dell’Università del Kansas hanno deciso di utilizzare proprio il Machine Learning per effettuare il training di un algoritmo in grado di distinguere ciò che viene generato da una macchina da ciò che è frutto della mente umana.
Fino ad ora questo particolare tipo di procedure si sono basate sul tentativo di riconoscere le fonti di un contenuto, soprattutto per evitare plagi e raggiri. La nuova soluzione si basa invece su un sistema che classifica le opere scritte dagli scienziati e da ChatGPT, isolandone le caratteristiche in modo da rilevare dei criteri di identificazione efficaci.
I test eseguiti fino ad ora avrebbero dimostrato che questo metodo permette di ottenere risultati affidabili al 99% quando vengono analizzate intere opere, del 92% quando la verifica si limita ad un paragrafo. Alla base di questo livello di precisione vi sarebbe la capacità dell’algoritmo di intercettare le differenze di stile tra gli autori umani e i chatbot.
Almeno per il momento infatti, i testi di questi ultimi presentano spesso ripetizioni, un uso non esattamente ottimale delle punteggiatura, un tono eccessivamente assertivo e la tendenza a generare paragrafi molto brevi. Al contrario gli esseri umani dimostrerebbero una maggiore attenzione non solo sui contenuti trattati ma anche sul modo in cui vengono trattati.