Secondo alcune indiscrezioni pubblicate nelle scorse ore, i dirigenti di Mountain View avrebbero consigliato ai propri collaboratori di non utilizzare contenuti riservati nei prompt da inviare al chatbot Google Bard. Quest’ultimo è stato lanciato come risposta a ChatGPT di OpenAI ma non è ancora disponibile nel nostro Paese per questioni legate al trattamento dei dati personali.
Ma quali potrebbero essere le ragioni di tanta cautela? A questo proposito è possibile ricordare che altre compagnie, come per esempio Samsung, avrebbero addirittura vietato l’uso dei chatbot basati sui modelli generativi in azienda per evitare il rischio che tra le informazioni utilizzate per il training delle AI finissero anche dei segreti aziendali.
Stesso discorso per quanto riguarda Alphabet, il gigantesco conglomerato finanziario del quale fa parte Big G, i cui responsabili vorrebbero evitare che le interazioni tra i propri dipendenti e Bard possano essere utilizzate dal chatbot per fornire risposte ad altri utenti. Con la differenza che Bard è appunto una piattaforma sviluppato da Google stessa.
Tale criticità non riguarda unicamente le grandi aziende, le policy del servizio sconsigliano infatti a chiunque di formulare prompt che contengano informazioni personali o confidenziali. Questo perché il modello generativo potrebbe utilizzare tali contenuti negli output, permettendo ad esempio l’identificazione di persone che non hanno fornito il loro consenso.
Sempre stando ai rumors attualmente circolanti, il gruppo capitanato da Sundar Pichai avrebbe chiesto ai propri programmatori di non utilizzare Google Bard nel proprio lavoro. Il chatbot è infatti in grado di generare codice in decine di linguaggi di programmazione ma non è detto che i sorgenti forniti siano corretti e privi di vulnerabilità.