Se está explotando la inteligencia artificial (IA) para crear y distribuir miles de videos sexualmente sugerentes que representan a menores en TikTok, a pesar de la prohibición de dicho contenido por parte de la plataforma. Un informe reciente de la organización española de verificación de datos Maldita encontró más de 5.200 vídeos de más de 20 cuentas, acumulando casi 6 millones de me gusta y un total de 550.000 seguidores.
La magnitud del problema
Los videos muestran a chicas jóvenes con atuendos reveladores, incluidos bikinis y uniformes escolares, y en poses sugerentes. El análisis de Maldita reveló que muchas de estas cuentas se benefician activamente del contenido a través del servicio de suscripción de TikTok, donde los creadores reciben pagos mensuales por acceso exclusivo. La propia TikTok se lleva aproximadamente el 50% de estos beneficios.
Peor aún, las secciones de comentarios de estos videos frecuentemente contienen enlaces a grupos de Telegram conocidos por vender pornografía infantil. Maldita denunció 12 de estos grupos de Telegram a la policía española.
Eludir las regulaciones
Las pautas comunitarias de TikTok prohíben el contenido dañino y exigen que los creadores etiqueten los videos generados por IA. Sin embargo, Maldita descubrió que la gran mayoría de los videos analizados carecían de marcas de agua de identificación de IA, lo que los hacía difíciles de detectar. Algunos videos mostraban una marca de agua “TikTok AI Alive” utilizada para convertir imágenes fijas en videos, pero esto no estaba muy extendido.
El hecho de que estas cuentas prosperen sugiere que las medidas de moderación existentes no están funcionando de manera efectiva. El informe plantea serias dudas sobre la capacidad de la plataforma para proteger a los niños de la explotación.
Respuestas de la plataforma e inquietudes globales
TikTok afirma eliminar el 99% del contenido dañino automáticamente y el 97% del material ofensivo generado por IA de forma proactiva. La plataforma afirma que suprime o cierra inmediatamente las cuentas que comparten material de abuso sexual infantil y se coordina con el Centro Nacional de Estados Unidos para Niños Desaparecidos y Explotados (NCMEC). Entre abril y junio de 2025, TikTok eliminó más de 189 millones de vídeos y prohibió 108 millones de cuentas.
Telegram afirma que escanea todas las cargas públicas en busca de material conocido de abuso sexual infantil, eliminando más de 909.000 grupos y canales solo en 2025. La plataforma argumenta que su moderación es efectiva porque los delincuentes deben depender de grupos privados y otras plataformas para distribuir dicho contenido.
Los hallazgos se producen cuando varios países –entre ellos Australia, Dinamarca y la Unión Europea– consideran restricciones más estrictas a las redes sociales para menores para mejorar la seguridad en línea.
El resultado final
A pesar de las agresivas afirmaciones de moderación de contenido, el material de abuso sexual infantil generado por IA continúa difundiéndose en TikTok y otras plataformas. Esto sugiere que las salvaguardias actuales son insuficientes y que se necesitan urgentemente medidas más estrictas, incluidas herramientas mejoradas de detección de IA y una mayor cooperación policial, para proteger a los menores en línea.





























