A inteligência artificial (IA) está sendo explorada para criar e distribuir milhares de vídeos sexualmente sugestivos retratando menores no TikTok, apesar da proibição de tal conteúdo pela plataforma. Um relatório recente da organização espanhola de verificação de factos Maldita encontrou mais de 5.200 vídeos de mais de 20 contas, acumulando quase 6 milhões de gostos e um total de 550.000 seguidores.
A escala do problema
Os vídeos apresentam meninas em trajes reveladores, incluindo biquínis e uniformes escolares, e em poses sugestivas. A análise de Maldita revelou que muitas dessas contas lucram ativamente com o conteúdo por meio do serviço de assinatura do TikTok, onde os criadores recebem pagamentos mensais para acesso exclusivo. O próprio TikTok fica com cerca de 50% desses lucros.
Pior ainda, as seções de comentários desses vídeos frequentemente contêm links para grupos do Telegram conhecidos por vender pornografia infantil. Maldita denunciou 12 desses grupos do Telegram à polícia espanhola.
Contornando Regulamentos
As diretrizes da comunidade do TikTok proíbem conteúdo prejudicial e exigem que os criadores rotulem os vídeos gerados por IA. No entanto, Maldita descobriu que a grande maioria dos vídeos analisados não possuía marcas d’água de identificação de IA, o que os tornava difíceis de detectar. Alguns vídeos exibiam uma marca d’água “TikTok AI Alive” usada para transformar imagens estáticas em vídeos, mas isso não era generalizado.
O facto de estas contas prosperarem sugere que as medidas de moderação existentes não estão a funcionar de forma eficaz. O relatório levanta sérias questões sobre a capacidade da plataforma de proteger as crianças da exploração.
Respostas da plataforma e preocupações globais
O TikTok afirma remover 99% do conteúdo prejudicial automaticamente e 97% do material ofensivo gerado por IA de forma proativa. A plataforma afirma que suprime ou encerra imediatamente contas que compartilham material de abuso sexual infantil e coordena com o Centro Nacional dos EUA para Crianças Desaparecidas e Exploradas (NCMEC). Entre abril e junho de 2025, o TikTok removeu mais de 189 milhões de vídeos e baniu 108 milhões de contas.
O Telegram afirma que verifica todos os uploads públicos em busca de material conhecido de abuso sexual infantil, removendo mais de 909.000 grupos e canais somente em 2025. A plataforma argumenta que a sua moderação é eficaz porque os criminosos devem contar com grupos privados e outras plataformas para distribuir tal conteúdo.
As conclusões surgem num momento em que vários países – incluindo a Austrália, a Dinamarca e a União Europeia – consideram restrições mais rigorosas às redes sociais para menores, a fim de aumentar a segurança online.
O resultado final
Apesar das alegações agressivas de moderação de conteúdo, o material de abuso sexual infantil gerado por IA continua a se espalhar no TikTok e em outras plataformas. Isto sugere que as atuais salvaguardas são insuficientes e que são urgentemente necessárias medidas mais rigorosas, incluindo ferramentas melhoradas de deteção de IA e uma maior cooperação policial, para proteger os menores em linha.





























