Le matériel d’abus sexuel d’enfants généré par l’IA prolifère sur TikTok

8

L’intelligence artificielle (IA) est exploitée pour créer et distribuer des milliers de vidéos à caractère sexuel représentant des mineurs sur TikTok, malgré l’interdiction de ce type de contenu par la plateforme. Un récent rapport de l’organisation espagnole de vérification des faits Maldita a découvert plus de 5 200 vidéos provenant de plus de 20 comptes, rassemblant près de 6 millions de likes et un total de 550 000 followers.

L’ampleur du problème

Les vidéos présentent des jeunes filles vêtues de tenues révélatrices, notamment des bikinis et des uniformes scolaires, et dans des poses suggestives. L’analyse de Maldita a révélé que bon nombre de ces comptes profitent activement du contenu via le service d’abonnement de TikTok, où les créateurs reçoivent des paiements mensuels pour un accès exclusif. TikTok lui-même prend environ 50 % de ces bénéfices.

Pire encore, les sections de commentaires de ces vidéos contiennent fréquemment des liens vers des groupes Telegram connus pour vendre de la pédopornographie. Maldita a signalé 12 de ces groupes Telegram à la police espagnole.

Contournement des réglementations

Les directives de la communauté TikTok interdisent les contenus préjudiciables et obligent les créateurs à étiqueter les vidéos générées par l’IA. Cependant, Maldita a constaté que la grande majorité des vidéos analysées ne présentaient aucun filigrane d’identification par l’IA, ce qui les rendait difficiles à détecter. Certaines vidéos affichaient un filigrane « TikTok AI Alive » utilisé pour transformer des images fixes en vidéos, mais cela n’était pas répandu.

Le fait que ces comptes prospèrent suggère que les mesures de modération existantes ne fonctionnent pas efficacement. Le rapport soulève de sérieuses questions sur la capacité de la plateforme à protéger les enfants contre l’exploitation.

Réponses de la plateforme et préoccupations mondiales

TikTok prétend supprimer automatiquement 99 % des contenus nuisibles et 97 % des contenus offensants générés par l’IA de manière proactive. La plateforme déclare qu’elle supprime ou ferme immédiatement les comptes partageant du matériel d’abus sexuels sur des enfants et se coordonne avec le Centre national américain pour les enfants disparus et exploités (NCMEC). Entre avril et juin 2025, TikTok a supprimé plus de 189 millions de vidéos et interdit 108 millions de comptes.

Telegram affirme qu’il analyse tous les téléchargements publics à la recherche de matériel connu d’abus sexuels sur des enfants, supprimant plus de 909 000 groupes et chaînes rien qu’en 2025. La plateforme affirme que sa modération est efficace car les criminels doivent s’appuyer sur des groupes privés et d’autres plateformes pour diffuser ce contenu.

Ces résultats interviennent alors que plusieurs pays – dont l’Australie, le Danemark et l’Union européenne – envisagent des restrictions plus strictes sur les réseaux sociaux pour les mineurs afin d’améliorer la sécurité en ligne.

L’essentiel

Malgré les allégations agressives de modération du contenu, le matériel d’abus sexuel d’enfants généré par l’IA continue de se propager sur TikTok et d’autres plateformes. Cela suggère que les garanties actuelles sont insuffisantes et que des mesures plus strictes, notamment des outils de détection de l’IA améliorés et une coopération accrue des forces de l’ordre, sont nécessaires de toute urgence pour protéger les mineurs en ligne.