Штучний інтелект (ШІ) використовується для створення та розповсюдження тисяч відео сексуального характеру за участю неповнолітніх у TikTok, незважаючи на те, що платформа забороняє такий контент. Недавній звіт іспанської організації з перевірки фактів Maldita виявив понад 5200 відео з понад 20 акаунтів, які отримали майже 6 мільйонів лайків і загалом 550 000 підписників.
Обсяг проблеми
На відео зображені молоді дівчата у відкритому одязі, включаючи бікіні та шкільну форму, у спокусливих позах. Аналіз Maldita виявив, що багато з цих облікових записів активно заробляють гроші на вмісті через послугу платної підписки TikTok, де творці отримують щомісячні платежі за ексклюзивний доступ. TikTok отримує близько 50% цих прибутків.
Що ще гірше, коментарі до цих відео часто містять посилання на групи Telegram, відомі продажем дитячої порнографії. Maldita повідомила іспанській поліції про 12 таких груп Telegram.
Правила обходу
Правила спільноти TikTok забороняють шкідливий контент і вимагають від творців позначати відео, згенероване ШІ. Однак Мальдіта виявив, що переважна більшість проаналізованих відео не мали жодного водяного знака, який ідентифікував би їх як створені ШІ, що ускладнювало їх виявлення. На деяких відео відображався водяний знак «TikTok AI Alive», який використовувався для перетворення нерухомих зображень у відео, але це не було універсальним.
Той факт, що ці облікові записи процвітають, свідчить про неефективність існуючих заходів модерації. У звіті виникають серйозні питання про здатність платформи захищати дітей від експлуатації.
Реакція платформи та глобальні проблеми
TikTok каже, що автоматично видаляє 99% шкідливого контенту та завчасно видаляє 97% образливого контенту, створеного ШІ. Платформа заявляє, що негайно блокує або закриває облікові записи, які поширюють матеріали про сексуальну експлуатацію дітей, і співпрацює з Національним центром США для зниклих і експлуатованих дітей (NCMEC). У період з квітня по червень 2025 року TikTok видалив понад 189 мільйонів відео та призупинив роботу 108 мільйонів облікових записів.
Telegram каже, що сканує всі публічні завантаження на наявність відомого матеріалу про сексуальну експлуатацію дітей, видаливши понад 909 000 груп і каналів лише у 2025 році. Платформа каже, що її модерація є ефективною, оскільки злочинцям доводиться покладатися на приватні групи та інші платформи для поширення такого контенту.
Ці висновки зроблені в той момент, коли кілька країн, включаючи Австралію, Данію та Європейський Союз, розглядають можливість посилення обмежень щодо соціальних мереж для неповнолітніх, намагаючись підвищити безпеку в Інтернеті.
Суть проблеми
Незважаючи на агресивні повідомлення про модерацію контенту, створений штучним інтелектом матеріал про сексуальну експлуатацію дітей продовжує поширюватися на TikTok та інших платформах. Це свідчить про те, що поточні засоби захисту є недостатніми, і для захисту неповнолітніх в Інтернеті терміново необхідні більш сильні заходи, включаючи покращені інструменти виявлення штучного інтелекту та посилення співпраці з правоохоронними органами.






























