Nei giorni scorsi Taylor Swift, probabilmente la musicista più popolare del mondo, è stata al centro di una campagna di DeepFake con immagini pubblicate su X. Il social network di Elon Musk ha quindi optato per una strategia di contenimento del danno, bloccando temporaneamente le ricerche che contenevano il nome dell’artista.
Questa contromisura ha avuto però un’efficacia parziale e alcuni utenti sono riusciti a trovare il modo di aggirarla. Dato che le immagini al centro della vicenda sono state create tramite Microsoft Designer, piattaforma basata sul modello DALL·E 3 di OpenAI, è dovuta intervenire direttamente la Casa di Redmond per risolvere il problema a monte.
Designer è stato così aggiornato per impedire la creazione di nuovi DeepFake che avrebbero danneggiato ulteriormente la reputazione della Swift. In diversi casi infatti, le immagini circolate, seppur false, erano talmente realistiche da generare un vero e proprio clima di disinformazione presso gli utenti meno "attrezzati" dal punto di vista delle competenze tecnologiche.
users on telegram and 4chan are angry that Microsoft closed loopholes that allowed them to make AI porn of Taylor Swift, but they are finding other ways to do it https://t.co/GOKTajaHkz
— Emanuel Maiberg (@emanuelmaiberg) January 29, 2024
Naturalmente i tecnici di Microsoft non hanno rivelato alcun dettaglio riguardo alla modifiche apportate al servizio. Tra l’altro quest’ultimo vieta da sempre la creazione di immagini di nudo non consensuale, i controlli presenti nel sistema potevano essere però bypassati per la creazione di DeepFake utilizzando dei prompt appositamente formattati.
Praticamente scomparse dalle pagine di X, le immagini della Swift continuerabbero ad essere diffuse attraverso un canale Telegram a cui sarebbero iscritti migliaia di utenti. Nel contempo alcune community di imageboard come il controverso 4chan sarebbero ancora attive nella ricerca di workaround per aggirare i nuovi blocchi di Designer.