Распространение Материалов о Детской Сексуальной Эксплуатации, Сгенерированных ИИ, на TikTok

2

Искусственный интеллект (ИИ) используется для создания и распространения тысяч откровенно сексуальных видеороликов с участием несовершеннолетних на TikTok, несмотря на запрет подобного контента на платформе. Недавний отчет испанской организации по проверке фактов Maldita обнаружил более 5200 видео с более чем 20 аккаунтов, которые получили почти 6 миллионов лайков и в общей сложности 550 000 подписчиков.

Масштаб Проблемы

В видеороликах изображены молодые девушки в откровенной одежде, включая бикини и школьную форму, в соблазнительных позах. Анализ Maldita показал, что многие из этих аккаунтов активно зарабатывают на контенте через платную подписку TikTok, где создатели получают ежемесячные выплаты за эксклюзивный доступ. TikTok забирает около 50% этой прибыли.

Хуже того, в комментариях к этим видео часто содержатся ссылки на группы Telegram, известные продажей детской порнографии. Maldita сообщила о 12 таких группах Telegram в испанскую полицию.

Обход Правил

Правила сообщества TikTok запрещают вредоносный контент и требуют от создателей маркировать видео, сгенерированные ИИ. Однако Maldita обнаружила, что подавляющее большинство проанализированных видео не имеют никаких водяных знаков, идентифицирующих их как сгенерированные ИИ, что затрудняет их обнаружение. Некоторые видео отображали водяной знак «TikTok AI Alive», используемый для преобразования неподвижных изображений в видео, но это было не повсеместно.

Тот факт, что эти аккаунты процветают, говорит о неэффективности существующих мер модерации. Отчет вызывает серьезные вопросы о способности платформы защитить детей от эксплуатации.

Ответ Платформы и Глобальные Проблемы

TikTok утверждает, что автоматически удаляет 99% вредоносного контента и проактивно удаляет 97% оскорбительных материалов, сгенерированных ИИ. Платформа заявляет, что немедленно подавляет или закрывает аккаунты, распространяющие материалы о детской сексуальной эксплуатации, и сотрудничает с Национальным центром пропавших и эксплуатируемых детей США (NCMEC). В период с апреля по июнь 2025 года TikTok удалил более 189 миллионов видео и заблокировал 108 миллионов аккаунтов.

Telegram утверждает, что сканирует все общедоступные загрузки на предмет известных материалов о детской сексуальной эксплуатации, удалив более 909 000 групп и каналов только в 2025 году. Платформа утверждает, что ее модерация эффективна, потому что преступникам приходится полагаться на частные группы и другие платформы для распространения такого контента.

Выводы появились в то время, как несколько стран – включая Австралию, Данию и Европейский Союз – рассматривают более строгие ограничения социальных сетей для несовершеннолетних с целью повышения онлайн-безопасности.

Суть Проблемы

Несмотря на агрессивные заявления об модерации контента, материалы о детской сексуальной эксплуатации, сгенерированные ИИ, продолжают распространяться на TikTok и других платформах. Это говорит о том, что текущих мер защиты недостаточно, и срочно необходимы более строгие меры, включая усовершенствованные инструменты обнаружения ИИ и усиленное сотрудничество с правоохранительными органами, для защиты несовершеннолетних в Интернете.