OpenAI i Google wzmacniają swoje środki bezpieczeństwa przed nadużyciami w generowaniu obrazów AI w odpowiedzi na powszechne wykorzystywanie narzędzi generatywnych, w szczególności w związku ze skandalem z udziałem Groka xAI Elona Muska. Niedawne incydenty uwydatniają pilną potrzebę wprowadzenia silniejszych środków bezpieczeństwa w związku z szybkim rozwojem tych technologii.
Skandal Groka i jego konsekwencje
Na początku 2026 r. Grok, narzędzie sztucznej inteligencji firmy xAI, zostało użyte do wygenerowania około 3 milionów obrazów o charakterze seksualnym w 11 dni, w tym około 23 000 obrazów zawierających materiały przedstawiające wykorzystywanie seksualne dzieci (CSAM). Nadużycie zostało zgłoszone przez Centrum Przeciwdziałania Nienawiści Cyfrowej, podkreślając, jak łatwo można wykorzystać generatywną sztuczną inteligencję do złośliwych celów.
X (dawniej Twitter) tymczasowo zawiesił funkcję edycji obrazów Groka na swojej platformie w następstwie publicznego protestu, chociaż funkcja ta pozostaje dostępna dla płatnych subskrybentów za pośrednictwem wybranych aplikacji i stron internetowych. Incydent skłonił konkurencję do natychmiastowych działań, ponieważ pokazał, jak szybko można wykorzystać sztuczną inteligencję do tworzenia złośliwych treści.
Odpowiedź OpenAI: poprawki błędów i czerwone zespoły
OpenAI naprawiło luki w ChatGPT, które pozwalały użytkownikom ominąć moderację treści. Badacze z Mindgard pokazali, jak „wrogie podpowiedzi” – pisanie złośliwych instrukcji – mogą oszukać chatbota do wygenerowania wyraźnych obrazów. OpenAI zauważyło błąd na początku lutego i wdrożyło poprawkę w ciągu kilku dni od zgłoszenia go przez Mindgard, podkreślając znaczenie zewnętrznych audytów bezpieczeństwa.
„Zakładanie, że zmotywowani użytkownicy nie będą próbowali obejść środków bezpieczeństwa, jest strategicznym błędem” – napisał Mindgard w poście na blogu.
Takie podejście, w którym zewnętrzni badacze celowo testują modele sztucznej inteligencji pod kątem słabych punktów, symuluje rzeczywiste ataki i zmusza programistów do iteracyjnego ulepszania swoich środków bezpieczeństwa.
Google ułatwia zgłaszanie nadużyć
Google ułatwiło usuwanie obrazów dla dorosłych z wyszukiwarki. Użytkownicy mogą teraz łatwo zgłaszać obrazy, które uważają za niezgodne z konsensusem lub obraźliwe, wybierając wiele obrazów jednocześnie i śledząc ich posty. Firma powtórzyła także swoją politykę zakazującą wykorzystywania sztucznej inteligencji do działań nielegalnych lub szkodliwych, takich jak tworzenie intymnych obrazów.
Chociaż istnieją przepisy takie jak ustawa Take Action Act z 2025 r., grupy wsparcia, takie jak Krajowe Centrum ds. Wykorzystywania Seksualnego, nalegają na wprowadzenie bardziej kompleksowych przepisów chroniących ofiary.
Ciągła walka o bezpieczeństwo sztucznej inteligencji
Pomimo tych wysiłków nie ma niezawodnego rozwiązania zapobiegającego nadużyciom. Twórcy sztucznej inteligencji muszą zachować czujność i szybko reagować na pojawiające się zagrożenia. Szybki rozwój tych technologii wymaga ciągłego testowania, udoskonalania i współpracy między firmami, badaczami i decydentami.
Najważniejszy wniosek jest taki, że bezpieczeństwo sztucznej inteligencji nie jest rozwiązaniem jednorazowym, ale procesem ciągłym. Programiści powinni założyć, że napastnicy będą wytrwali i aktywnie wzmacniać środki bezpieczeństwa, aby chronić użytkowników.
