I moderatori di Reddit starebbero affrontando alcune difficoltร nel gestire il flusso di contenuti generati dall’intelligenza artificiale all’interno delle loro comunitร . Soprannominati “AI slop“, essi variano da testi generati automaticamente a immagini create tramite algoritmi di Deep Learning. Di per sรฉ l’AI offre strumenti utili per la creazione di contenuti ma il suo uso indiscriminato e non regolamentato rappresenta ad oggi un motivo di preoccupazione anche per gli utenti della piattaforma.
Il difficile rapporto tra Reddit e l’AI
Uno studio condotto qualche tempo fa ha evidenziato come i moderatori di Reddit percepiscano i contenuti generati dall’AI come potenzialmente dannosi per le loro comunitร . Non che non ne riconoscano alcune applicazioni legittime ma prevale l’idea che essi possano compromettere l’autenticitร e la qualitร delle discussioni. Le maggiori difficoltร a riguardo risiedono nell’assenza di strumenti efficaci per identificare e gestire automaticamente contributi di questo tipo. Il compito dei moderatori diventa quindi particolarmente complesso se non addirittura frustrante.
La mancanza di tool di rilevamento affidabili costringe questi ultimi a fare affidamento su metodi manuali e sulle segnalazioni da parte degli utenti, dei processi che perรฒ possono essere lenti quando non inefficaci. La situazione viene poi complicata ulteriormente dalla rapiditร con cui l’AI evolve e rende sempre piรน difficile distinguere tra contenuti genuini e generati artificialmente.
I moderatori chiedono aiuto alla piattaforma
I moderatori chiedono quindi una maggiore collaborazione da parte della piattaforma che dovrebbe fornire loro strumenti avanzati e aggiornati per il rilevamento dei contenuti generati dall’AI. Inoltre, la comunitร di Reddit potrebbe beneficiare di nuove linee guida riguardo all’uso accettabile dell’AI. Questo in modo da bilanciare l’uso di nuove tecnologie con la necessitร di mantenere l’integritร e l’autenticitร delle discussioni.