Microsoft ha individuato un bug in Microsoft 365 Copilot che avrebbe consentito al modulo Copilot Chat di analizzare e riassumere email contrassegnate come riservate. Il problema, presente dalla fine di gennaio, avrebbe quindi creato forti preoccupazioni sul rapporto tra privacy e AI.
Un bug in Copilot Chat
Secondo quanto riportato, la funzionalità “work tab” di Copilot Chat avrebbe elaborato dei messaggi “protetti” da policy DLP attive e apposite etichette. Sarebbero state così violate, di fatto, le restrizioni configurate dagli utilizzatori
Il bug (CW1226324) permetteva a Copilot di accedere a email presenti nelle cartelle Posta in arrivo, Posta inviata e Bozze, anche quando marcate come confidenziali. Le etichette di sensibilità e le policy Data Loss Prevention sono progettate per impedire l’accesso automatizzato a contenuti sensibili, specialmente in ambienti aziendali.
Microsoft ha attribuito l’anomalia ad un errore di codice che consentiva l’indicizzazione degli elementi nelle cartelle coinvolte. In pratica, il sistema avrebbe ignorato i controlli previsti prima di generare riassunti e analisi.
L’azienda ha avviato il rollout di una correzione a inizio febbraio e sta monitorando l’efficacia della patch contattando direttamente gli utenti. Non sono stati però comunicati dei numeri ufficiali sugli account impattati.
Quanto è rischiosa l’AI per i dati?
Copilot Chat è stato integrato in Word, Excel, PowerPoint, Outlook e OneNote per utenti con licenza Microsoft 365 con l’obiettivo di promuoverlo come assistente AI per la produttività . Episodi come questo incentivano però lo scetticismo di coloro che temono i rischi legati alla compliance.
L’integrazione dell’AI nei flussi di lavoro richiede quindi più controlli rigorosi su accessi, classificazione e trattamento dei dati sensibili. Anche un piccolo errore di implementazione può compromettere le policy di sicurezza più restrittive.

