AGCOM (Autorità per le Garanzie nelle Comunicazioni) ha deciso di avviare una consultazione pubblica riguardante eventuali misure a contrasto di fenomeni come l’hate speech online e la diffusione di video non adatti ai minori. L’intenzione è quella di stabilire delle modalità con le quali rimuovere più rapidamente i contenuti ritenuti dannosi.
L’iniziativa (riasssunta nella Delibera n. 76/23/Cons) potrebbe coinvolgere l’attività di diverse piattaforme che hanno sede al di fuori dell’Unione Europea come per esempio TikTok, Twitch, YouTube, Instagram, Facebook e Google. L’obbiettivo è quello di valutare uno schema di regolamento da applicare in diversi contesti, dalle comunicazioni audiovisive di carattere commerciale allo streaming.
Stando a quanto previsto dalla bozza di regolamento, l’Authority dovrebbe essere in grado di ordinare rapidamente la rimozione di un qualsiasi video dalla piattaforma che lo trasmette quando vengono riscontrati i requisiti di gravità e di urgenza. Ciò potrebbe avvenire ad esempio nel caso di filmati che incitano all’odio razziale, etnico, sessuale o religioso.
In ogni caso l’AGCOM dovrebbe poter operare anche quando i requisiti di gravità e urgenza non sussistano. Questo perché, nella sua forma attuale, il regolamento prevede di poter richiedere un intervento finalizzato alla rimozione di un contenuto dannoso all’autorità dello stato membro in cui è stabilito il provider del servizio di condivisione video.
La consultazione avrà una durata di 30 giorni dalla pubblicazione sul sito Web dell’AGCOM, una volta raccolti i pareri dei soggetti interessati l’Authority avrà la possibilità di dotarsi di un nuovo strumento grazie al quale evitare la distribuzione di video dai contenuti non consentiti su piattaforme che operano anche in Italia ma non dalla Penisola.