Nick Clegg, responsabile degli Affari Globali di Meta, ha recentemente ammesso che l’azienda ha applicato politiche di moderazione dei contenuti troppo rigide. Ciò avrebbe portato alla rimozione o limitazione ingiustificata di contenuti innocui sulle sue piattaforme. Durante una conferenza stampa, il dirigente ha poi riconosciuto che i tassi di errore nell’applicazione delle politiche di Meta sono ancora eccessivamente elevati, cosa che ostacola la libertà di espressione che il gruppo intende promuovere.
Meta ammette le sue colpe
Clegg ha sottolineato inoltre che durante la pandemia di COVID-19 Meta ha implementato regole estremamente rigorose. Sarebbero stati così eliminati grandi volumi di contenuti basandosi su informazioni incomplete. La compagnia riconosce quindi diversi errori di moderazione come la soppressione di immagini relative al Presidente eletto Donald Trump e avvertimenti da parte dell’Oversight Board di Meta riguardo alla rimozione di contenuti politici.
Nonostante queste ammissioni l’azienda non avrebbe ancora apportato i necessari aggiornamenti alle sue policy. Potrebbero esserci però degli aggiustamenti nel prossimo futuro. Molto dipenderà dalla capacità di “leggere” i feedback ricevuti.
Questa parziale “autocritica” arriva in un momento in cui Meta sta cercando di migliorare le relazioni con gli attuali leader politici statunitensi. Il CEO Mark Zuckerberg, ad esempio, ha recentemente incontrato il Presidente eletto Trump per discutere delle future politiche tecnologiche. Mentre Clegg ha sottolineato che lo sviluppo di soluzioni basate sull’intelligenza artificiale dovrà essere coordinato in accordo con le istituzioni.
L’impatto dell’AI sull’opinione pubblica
Secondo Meta l’intelligenza artificiale generativa avrebbe avuto un impatto limitato sulle elezioni di quest’anno. A parere di Clegg, infatti, le reti che cercavano di diffondere propaganda o contenuti falsi non sarebbero riuscite a costruirsi un pubblico abbastanza ampio su Facebook e Instagram. Il volume di disinformazione generata dall’IA è stato inoltre basso, rapidamente etichettato o rimosso.
Rimane comunque il rischio che nel prossimo futuro i contenuti prodotti dalla AI diventino del tutto indistinguibili da quelli creati da esseri umani con conseguenze poco prevedibili sulla loro moderazione.