Meta ha reso noto di aver risolto un problema che aveva portato alcuni utenti di Instagram a visualizzare contenuti violenti e disturbanti nei loro feed di Reels. L’azienda di Menlo Park si รจ poi scusata per l’incidente. Sottolineando che esso ha fatto in modo che venissero mostrate delle immagini che in condizioni normali non sarebbe state consigliate agli utenti.
L’errore e le reazioni degli utenti di Instagram
Nei giorni scorsi diversi utenti di Instagram hanno segnalato un improvviso afflusso di contenuti inappropriati sulle loro pagine Reels. Questo nonostante l’attivazione della modalitร “Sensitive Content Control” ai massimi livelli di moderazione. Altri hanno poi lamentato la presenza di immagini di corpi senza vita, ferite gravi e atti di violenza etichettati appunto come “Sensitive Content”.
Secondo quanto dichiarato in proposito da Meta, l’azienda utilizza l’intelligenza artificiale e una squadra di oltre 15 mila revisori per monitorare e rimuovere i contenuti che violano gli standard della piattaforma. In particolare sono proibiti video che mostrano smembramenti, organi interni visibili o corpi carbonizzati. Sono perรฒ permesse alcune eccezioni per contenuti che puntano a sensibilizzare gli utenti su questioni come i diritti umani e i conflitti armati in corso.
Gli aggiornamenti sulla moderazione dei contenuti
L’incidente arriva in un momento in cui Meta sta rivedendo le sue politiche di moderazione per promuovere una maggiore libertร di espressione non solo su Instagram. A gennaio 2025, dopo la vittoria di Donald Trump alle ultime elezioni presidenziali USA, la societร ha annunciato che i suoi sistemi automatizzati di controllo si sarebbero concentrati solo sulle violazioni piรน gravi. Come il terrorismo e lo sfruttamento minorile. Le infrazioni minori sarebbero state affrontate invece solo dopo le segnalazioni degli utenti.
Meta ha dichiarato inoltre di voler ridurre le penalizzazioni applicate ai contenuti che potrebbero violare le linee guida. Limitandosi a intervenire su violazioni realmente accertate.