Společnosti AI zpřísňují zabezpečení uprostřed skandálů se zneužíváním

21

OpenAI a Google posilují svá bezpečnostní opatření proti zneužívání generování obrázků AI v reakci na rozsáhlé využívání generativních nástrojů, zejména včetně skandálu týkajícího se xAI Grok od Elona Muska. Nedávné incidenty zdůrazňují naléhavou potřebu silnějších bezpečnostních opatření, protože tyto technologie se rychle vyvíjejí.

Skandál Grok a jeho důsledky

Na začátku roku 2026 byl Grok, nástroj umělé inteligence od xAI, použit k vytvoření přibližně 3 milionů sexualizovaných obrázků za 11 dní, včetně přibližně 23 000 obrázků obsahujících materiál pro sexuální zneužívání dětí (CSAM). Zneužívání bylo nahlášeno Centrem pro boj proti digitální nenávisti a zdůraznilo, jak snadno lze generativní umělou inteligenci použít ke škodlivým účelům.

Společnost X (dříve Twitter) dočasně pozastavila funkci úpravy obrázků Grok na své platformě po veřejném pobouření, ačkoli tato funkce zůstává dostupná placeným předplatitelům prostřednictvím vybraných aplikací a webových stránek. Incident vyvolal okamžitou akci ze strany konkurentů, protože ukázal, jak rychle lze umělou inteligenci použít k vytvoření škodlivého obsahu.

Odpověď OpenAI: Opravy chyb a červené týmy

OpenAI má opravené chyby zabezpečení v ChatGPT, které uživatelům umožňovaly obejít moderování obsahu. Výzkumníci z Mindgardu ukázali, jak „nepřátelské výzvy“ – psaní škodlivých instrukcí – mohou oklamat chatbota, aby generoval explicitní obrázky. OpenAI uznalo chybu na začátku února a implementovalo opravu během několika dní poté, co na ni Mindgard upozornila, čímž podtrhla důležitost externích bezpečnostních auditů.

“Předpokládat, že se motivovaní uživatelé nebudou snažit obejít bezpečnostní opatření, je strategická chyba,” napsal Mindgard v blogovém příspěvku.

Tento přístup, ve kterém externí výzkumníci záměrně testují modely umělé inteligence na slabiny, simuluje reálné útoky a nutí vývojáře, aby opakovaně zlepšovali svá bezpečnostní opatření.

Google usnadňuje nahlášení zneužití

Google usnadnil odstraňování explicitních obrázků z Vyhledávání. Uživatelé nyní mohou snadno nahlásit obrázky, které považují za nesouhlasné nebo urážlivé, výběrem více obrázků najednou a sledováním jejich příspěvků. Společnost také zopakovala své zásady zakazující používání umělé inteligence k nezákonným nebo škodlivým činnostem, jako je vytváření intimních snímků.

Zatímco zákony, jako je zákon Take Action Act z roku 2025, existují, zájmové skupiny, jako je Národní centrum pro sexuální vykořisťování, prosazují komplexnější předpisy na ochranu obětí.

Neustálý boj za bezpečnost AI

Navzdory těmto snahám neexistuje spolehlivé řešení, jak zneužívání zabránit. Vývojáři AI musí zůstat ostražití a rychle reagovat na vznikající hrozby. Rychlý vývoj těchto technologií vyžaduje neustálé testování, zlepšování a spolupráci mezi společnostmi, výzkumníky a tvůrci politik.

Hlavním zjištěním je, že zabezpečení AI není jednorázové řešení, ale trvalý proces. Vývojáři by měli předpokládat, že útočníci budou vytrvalí a proaktivně posílí bezpečnostní opatření na ochranu uživatelů.