додому Останні новини та статті Компанії зі штучним інтелектом посилюють безпеку на тлі скандалів із зловживаннями

Компанії зі штучним інтелектом посилюють безпеку на тлі скандалів із зловживаннями

Компанії зі штучним інтелектом посилюють безпеку на тлі скандалів із зловживаннями

OpenAI і Google посилюють свої заходи безпеки проти зловживань генерацією зображень штучного інтелекту у відповідь на широке використання генеративних інструментів, зокрема, включно зі скандалом, пов’язаним із xAI Grok Ілона Маска. Недавні інциденти підкреслюють нагальну потребу в посиленні заходів безпеки, оскільки ці технології швидко розвиваються.

Скандал Грока та його наслідки

На початку 2026 року Grok, інструмент штучного інтелекту від xAI, використовувався для створення приблизно 3 мільйонів сексуальних зображень за 11 днів, включаючи приблизно 23 000 зображень, що містять матеріали сексуального насильства над дітьми (CSAM). Про зловживання повідомив Центр протидії цифровій ненависті, підкреслюючи, як легко генеративний ШІ можна використовувати для зловмисних цілей.

X (раніше Twitter) тимчасово призупинив функцію редагування зображень Grok на своїй платформі після громадського обурення, хоча ця функція залишається доступною для платних передплатників через окремі програми та веб-сайти. Цей інцидент спонукав конкурентів негайно вжити заходів, оскільки він показав, як швидко ШІ можна використовувати для створення шкідливого вмісту.

Відповідь OpenAI: виправлення помилок і червоні команди

OpenAI виправив уразливості в ChatGPT, які дозволяли користувачам обходити модерацію вмісту. Дослідники з Mindgard продемонстрували, як «ворожі підказки» — написання зловмисних інструкцій — можуть обманом змусити чат-бота генерувати відверті зображення. OpenAI визнав помилку на початку лютого та впровадив виправлення протягом декількох днів після того, як Mindgard звернув її увагу, підкреслюючи важливість зовнішніх перевірок безпеки.

«Припущення, що мотивовані користувачі не намагатимуться обійти заходи безпеки, є стратегічною помилкою», — написав Mindgard у своєму блозі.

Цей підхід, за якого зовнішні дослідники навмисно перевіряють моделі штучного інтелекту на наявність недоліків, імітує реальні атаки та змушує розробників постійно вдосконалювати свої заходи безпеки.

Google полегшує повідомлення про порушення

Google спростив видалення відвертих зображень із Пошуку. Тепер користувачі можуть легко повідомляти про зображення, які вони вважають неконсенсусними або образливими, вибираючи кілька зображень одночасно та відстежуючи їхні публікації. Компанія також підтвердила свою політику, що забороняє використання штучного інтелекту для незаконних або шкідливих дій, таких як створення інтимних зображень.

Хоча існують такі закони, як «Закон про вжиття заходів» від 2025 року, правозахисні групи, як-от Національний центр з питань сексуальної експлуатації, наполягають на більш комплексних нормах для захисту жертв.

Боротьба за безпеку ШІ триває

Незважаючи на ці зусилля, немає надійного рішення для запобігання зловживанням. Розробники ШІ повинні залишатися пильними та швидко реагувати на нові загрози. Швидкий розвиток цих технологій вимагає постійного тестування, вдосконалення та співпраці між компаніями, дослідниками та політиками.

Ключовий висновок полягає в тому, що безпека ШІ — це не одноразове рішення, а постійний процес. Розробникам слід припускати, що зловмисники будуть наполегливими та проактивно посилять заходи безпеки для захисту користувачів.

Exit mobile version