Udostępnianie na TikToku materiałów dotyczących seksualnego wykorzystywania dzieci wygenerowanych przez sztuczną inteligencję

14

Sztuczna inteligencja (AI) jest wykorzystywana do tworzenia i rozpowszechniania tysięcy filmów o charakterze jednoznacznie seksualnym z udziałem nieletnich na TikTok, mimo że platforma zakazuje takich treści. W niedawnym raporcie hiszpańskiej organizacji sprawdzającej fakty Maldita znaleziono ponad 5200 filmów z ponad 20 kont, które uzyskały prawie 6 milionów polubień i łącznie 550 000 obserwujących.

Zakres problemu

Filmy przedstawiają młode dziewczyny ubrane w odkrywcze ubrania, w tym bikini i mundurki szkolne, w uwodzicielskich pozach. Analiza Maldity wykazała, że ​​wiele z tych kont aktywnie zarabia na treściach za pośrednictwem płatnej usługi subskrypcji TikTok, w ramach której twórcy otrzymują miesięczne płatności za wyłączny dostęp. TikTok pochłania około 50% tych zysków.

Co gorsza, komentarze do tych filmów często zawierają linki do grup na Telegramie znanych ze sprzedaży dziecięcej pornografii. Maldita zgłosiła hiszpańskiej policji 12 takich grup na Telegramie.

Omiń reguły

Wytyczne dla społeczności TikTok zabraniają szkodliwych treści i wymagają od twórców oznaczania filmów wygenerowanych przez sztuczną inteligencję. Jednak Maldita odkryła, że ​​zdecydowana większość przeanalizowanych filmów nie miała żadnego znaku wodnego identyfikującego je jako wygenerowane przez sztuczną inteligencję, co utrudnia ich wykrycie. W niektórych filmach wyświetlany był znak wodny „TikTok AI Alive” używany do przekształcania zdjęć w filmy, ale nie było to uniwersalne.

Fakt, że konta te prosperują, pokazuje, że istniejące środki moderacyjne są nieskuteczne. W raporcie nasuwają się poważne pytania dotyczące zdolności platformy do ochrony dzieci przed wykorzystywaniem.

Reakcja platformy i problemy globalne

TikTok twierdzi, że automatycznie usuwa 99% szkodliwych treści i aktywnie usuwa 97% obraźliwych treści generowanych przez sztuczną inteligencję. Platforma twierdzi, że natychmiast blokuje lub zamyka konta udostępniające materiały związane z wykorzystywaniem seksualnym dzieci i współpracuje z amerykańskim Krajowym Centrum ds. Dzieci Zaginionych i Wykorzystywanych (NCMEC). Między kwietniem a czerwcem 2025 r. TikTok usunął ponad 189 milionów filmów i zawiesił 108 milionów kont.

Telegram twierdzi, że skanuje wszystkie publiczne przesłane treści pod kątem znanych materiałów związanych z wykorzystywaniem seksualnym dzieci, usuwając w samym 2025 r. ponad 909 000 grup i kanałów. Platforma twierdzi, że jej moderowanie jest skuteczne, ponieważ przestępcy muszą polegać na prywatnych grupach i innych platformach, aby rozpowszechniać takie treści.

Do ustaleń doszło po tym, jak kilka krajów – w tym Australia, Dania i Unia Europejska – rozważa zaostrzenie ograniczeń w mediach społecznościowych dla nieletnich, aby poprawić bezpieczeństwo w Internecie.

Istota problemu

Pomimo agresywnych komunikatów o moderowaniu treści, generowane przez sztuczną inteligencję materiały przedstawiające seksualne wykorzystywanie dzieci w dalszym ciągu rozprzestrzeniają się na TikTok i innych platformach. Sugeruje to, że obecne zabezpieczenia są niewystarczające i pilnie potrzebne są silniejsze środki, w tym ulepszone narzędzia do wykrywania sztucznej inteligencji i ściślejsza współpraca z organami ścigania, aby chronić nieletnich w Internecie.