L’intelligenza artificiale (AI) viene sfruttata per creare e distribuire migliaia di video sessualmente allusivi che raffigurano minori su TikTok, nonostante il divieto di tali contenuti da parte della piattaforma. Un recente rapporto dell’organizzazione spagnola di fact-checking Maldita ha rilevato oltre 5.200 video da più di 20 account, accumulando quasi 6 milioni di Mi piace e un totale di 550.000 follower.
La portata del problema
I video mostrano ragazze in abiti succinti, inclusi bikini e uniformi scolastiche, e in pose suggestive. L’analisi di Maldita ha rivelato che molti di questi account traggono profitto attivamente dai contenuti attraverso il servizio di abbonamento di TikTok, dove i creatori ricevono pagamenti mensili per l’accesso esclusivo. La stessa TikTok si prende circa il 50% di questi profitti.
Peggio ancora, le sezioni dei commenti su questi video contengono spesso collegamenti a gruppi Telegram noti per la vendita di pornografia infantile. Maldita ha denunciato 12 di questi gruppi Telegram alla polizia spagnola.
Elusione delle normative
Le linee guida della community di TikTok vietano i contenuti dannosi e richiedono ai creatori di etichettare i video generati dall’intelligenza artificiale. Tuttavia, Maldita ha scoperto che la stragrande maggioranza dei video analizzati era priva di filigrane di identificazione dell’intelligenza artificiale, il che li rendeva difficili da rilevare. Alcuni video mostravano una filigrana “TikTok AI Alive” utilizzata per trasformare le immagini fisse in video, ma questo non era molto diffuso.
Il fatto che questi conti prosperino suggerisce che le misure di moderazione esistenti non funzionano in modo efficace. Il rapporto solleva seri interrogativi sulla capacità della piattaforma di proteggere i bambini dallo sfruttamento.
Risposte della piattaforma e preoccupazioni globali
TikTok afferma di rimuovere automaticamente il 99% dei contenuti dannosi e il 97% del materiale offensivo generato dall’intelligenza artificiale in modo proattivo. La piattaforma afferma di sopprimere o chiudere immediatamente gli account che condividono materiale pedopornografico e si coordina con il Centro nazionale statunitense per i bambini scomparsi e sfruttati (NCMEC). Tra aprile e giugno 2025, TikTok ha rimosso oltre 189 milioni di video e bannato 108 milioni di account.
Telegram afferma di scansionare tutti i caricamenti pubblici confrontandoli con materiale noto di abusi sessuali su minori, rimuovendo oltre 909.000 gruppi e canali solo nel 2025. La piattaforma sostiene che la sua moderazione è efficace perché i criminali devono fare affidamento su gruppi privati e altre piattaforme per distribuire tali contenuti.
I risultati arrivano mentre diversi paesi – tra cui Australia, Danimarca e Unione Europea – considerano restrizioni più severe sui social media per i minori per migliorare la sicurezza online.
Il risultato finale
Nonostante le affermazioni aggressive sulla moderazione dei contenuti, il materiale pedopornografico generato dall’intelligenza artificiale continua a diffondersi su TikTok e altre piattaforme. Ciò suggerisce che le attuali garanzie sono insufficienti e che sono urgentemente necessarie misure più rigorose, compresi strumenti potenziati di rilevamento dell’intelligenza artificiale e una maggiore cooperazione tra le forze dell’ordine, per proteggere i minori online.
