AI-gegenereerd materiaal over seksueel misbruik van kinderen verspreidt zich op TikTok

22

Kunstmatige intelligentie (AI) wordt uitgebuit om duizenden seksueel suggestieve video’s met minderjarigen op TikTok te maken en te verspreiden, ondanks het verbod op dergelijke inhoud op het platform. In een recent rapport van de Spaanse factcheckorganisatie Maldita zijn ruim 5.200 video’s van meer dan twintig accounts aangetroffen, die bijna zes miljoen likes hebben verzameld en in totaal 550.000 volgers hebben.

De omvang van het probleem

De video’s tonen jonge meisjes in onthullende kleding, waaronder bikini’s en schooluniformen, en in suggestieve poses. Uit Maldita’s analyse bleek dat veel van deze accounts actief profiteren van de inhoud via de abonnementsdienst van TikTok, waar makers maandelijkse betalingen ontvangen voor exclusieve toegang. TikTok zelf neemt ongeveer 50% van deze winsten voor zijn rekening.

Erger nog, de commentaarsecties op deze video’s bevatten vaak links naar Telegram-groepen die bekend staan ​​om het verkopen van kinderporno. Maldita meldde twaalf van deze Telegram-groepen bij de Spaanse politie.

Regelgeving omzeilen

De communityrichtlijnen van TikTok verbieden schadelijke inhoud en vereisen dat makers door AI gegenereerde video’s een label geven. Maldita ontdekte echter dat de overgrote meerderheid van de geanalyseerde video’s geen AI-identificatiewatermerken bevatte, waardoor ze moeilijk te detecteren waren. Sommige video’s vertoonden een “TikTok AI Alive”-watermerk dat werd gebruikt om stilstaande beelden in video’s om te zetten, maar dit was niet wijdverbreid.

Het feit dat deze accounts het goed doen, suggereert dat de bestaande moderatiemaatregelen niet effectief werken. Het rapport roept serieuze vragen op over het vermogen van het platform om kinderen tegen uitbuiting te beschermen.

Platformreacties en mondiale zorgen

TikTok beweert 99% van de schadelijke inhoud automatisch te verwijderen en 97% van het aanstootgevende, door AI gegenereerde materiaal proactief. Het platform stelt dat het onmiddellijk accounts onderdrukt of sluit die materiaal over seksueel kindermisbruik delen en coördineert met het Amerikaanse National Center for Missing and Exploited Children (NCMEC). Tussen april en juni 2025 verwijderde TikTok meer dan 189 miljoen video’s en verbood 108 miljoen accounts.

Telegram beweert dat het alle openbare uploads scant op bekend materiaal met seksueel misbruik van kinderen, waardoor alleen al in 2025 meer dan 909.000 groepen en kanalen worden verwijderd. Het platform beweert dat de moderatie effectief is omdat criminelen afhankelijk zijn van particuliere groepen en andere platforms om dergelijke inhoud te verspreiden.

De bevindingen komen omdat verschillende landen – waaronder Australië, Denemarken en de Europese Unie – strengere beperkingen op sociale media voor minderjarigen overwegen om de online veiligheid te vergroten.

Het eindresultaat

Ondanks agressieve beweringen over contentmoderatie blijft door AI gegenereerd materiaal over seksueel misbruik van kinderen zich verspreiden op TikTok en andere platforms. Dit wijst erop dat de huidige waarborgen onvoldoende zijn en dat er dringend strengere maatregelen nodig zijn, waaronder verbeterde AI-detectie-instrumenten en meer samenwerking op het gebied van rechtshandhaving, om minderjarigen online te beschermen.