KI-generiertes Material über sexuellen Missbrauch von Kindern nimmt auf TikTok zu

3

Künstliche Intelligenz (KI) wird genutzt, um Tausende sexuell anzüglicher Videos mit Darstellungen von Minderjährigen auf TikTok zu erstellen und zu verbreiten, obwohl die Plattform solche Inhalte verbietet. Ein aktueller Bericht der spanischen Faktenprüfungsorganisation Maldita fand über 5.200 Videos von mehr als 20 Konten, die fast 6 Millionen Likes und insgesamt 550.000 Follower haben.

Das Ausmaß des Problems

Die Videos zeigen junge Mädchen in freizügiger Kleidung, darunter Bikinis und Schuluniformen, und in anzüglichen Posen. Die Analyse von Maldita ergab, dass viele dieser Konten über den Abonnementdienst von TikTok, bei dem die Ersteller monatliche Zahlungen für den exklusiven Zugriff erhalten, aktiv von den Inhalten profitieren. TikTok selbst nimmt etwa 50 % dieser Gewinne ein.

Schlimmer noch: Die Kommentarbereiche dieser Videos enthalten häufig Links zu Telegram-Gruppen, die für den Verkauf von Kinderpornografie bekannt sind. Maldita meldete zwölf dieser Telegram-Gruppen der spanischen Polizei.

Umgehung von Vorschriften

Die Community-Richtlinien von TikTok verbieten schädliche Inhalte und verlangen von den Erstellern, KI-generierte Videos zu kennzeichnen. Maldita stellte jedoch fest, dass die überwiegende Mehrheit der analysierten Videos keine Wasserzeichen zur KI-Identifizierung aufwiesen, was ihre Erkennung erschwerte. Einige Videos zeigten zwar ein „TikTok AI Alive“-Wasserzeichen, das zur Umwandlung von Standbildern in Videos verwendet wurde, aber das war nicht weit verbreitet.

Die Tatsache, dass diese Konten florieren, deutet darauf hin, dass bestehende Moderationsmaßnahmen nicht effektiv funktionieren. Der Bericht wirft ernsthafte Fragen hinsichtlich der Fähigkeit der Plattform auf, Kinder vor Ausbeutung zu schützen.

Plattformreaktionen und globale Bedenken

TikTok gibt an, 99 % der schädlichen Inhalte automatisch und 97 % der beleidigenden KI-generierten Inhalte proaktiv zu entfernen. Die Plattform gibt an, dass sie Konten, die Material über sexuellen Kindesmissbrauch teilen, sofort unterdrückt oder schließt und sich mit dem US-amerikanischen National Center for Missing and Exploited Children (NCMEC) koordiniert. Zwischen April und Juni 2025 hat TikTok über 189 Millionen Videos entfernt und 108 Millionen Konten gesperrt.

Telegram gibt an, alle öffentlichen Uploads auf bekanntes Material über sexuellen Kindesmissbrauch zu prüfen und allein im Jahr 2025 über 909.000 Gruppen und Kanäle zu entfernen. Die Plattform argumentiert, dass ihre Moderation effektiv sei, da Kriminelle auf private Gruppen und andere Plattformen angewiesen seien, um solche Inhalte zu verbreiten.

Die Ergebnisse kommen zu einem Zeitpunkt, an dem mehrere Länder – darunter Australien, Dänemark und die Europäische Union – strengere Social-Media-Beschränkungen für Minderjährige in Betracht ziehen, um die Online-Sicherheit zu erhöhen.

Das Fazit

Trotz aggressiver Behauptungen über die Moderation von Inhalten verbreitet sich auf TikTok und anderen Plattformen weiterhin KI-generiertes Material über sexuellen Kindesmissbrauch. Dies deutet darauf hin, dass die derzeitigen Schutzmaßnahmen unzureichend sind und dass strengere Maßnahmen, einschließlich verbesserter KI-Erkennungstools und einer verstärkten Zusammenarbeit der Strafverfolgungsbehörden, dringend erforderlich sind, um Minderjährige im Internet zu schützen.