Apprezzato da molti e osteggiato da altri, ChatGPT può rivelarsi uno strumento molto utile per incrementare la propria produttività, sia in ambito lavorativo che artistico. Come tutti i nuovi strumenti dovrebbe essere però utilizzato con una certa cautela, questo perché in alcuni casi i suoi output potrebbero dar luogo a risultati imprevedibili.
A tal proposito potrebbe essere utile citare alcuni episodi che, secondo indiscrezioni, si sarebbero verificati in seguito all’uso del chatbot di OpenAI da parte di dipendenti della Samsung . Nello specifico un impiego non proprio accorto di ChatGPT avrebbe portato alla rivelazione di alcuni dati aziendali che sarebbero dovuti rimanere riservati.
In sostanza l’azienda sudcoreana avrebbe autorizzato gli ingegneri della divisione Semiconductor all’uso della piattaforma per la velocizzazione di alcuni processi di business legati alla produzione di reportistica e presentazioni aziendali. Fin qui tutto bene se non fosse per il fatto che le informazioni elaborate in questo modo vengono utilizzate anche da OpenAI per il miglioramento del proprio modello generativo.
Stando a quanto riportato dalla testata sudcoreana Economist gli incidenti sarebbero stati tre nel corso di appena una ventina di giorni. In uno di essi sarebbe stato caricato nella piattaforma il codice sorgente di un’applicazione, il secondo avrebbe riguardato dei modelli di test per l’individuzione delle unità diffettose, mentre il terzo la conversione di una riunione interna in presentazione.
Dato che GPT utilizza le informazioni raccolte per addestrare l’AI, non è detto che tali dati non possano essere utilizzati in futuro per la generazione di output, mettendo a rischio alcuni segreti industriali di Samsung. Per questo motivo la compagnia avrebbe deciso di sviluppare in proprio un chatbot da destinare unicamente all’uso interno.