OpenAI реагує на зростаючі занепокоєння щодо використання свого чат-бота ChatGPT, оголошуючи про новий набір батьківського контролю. Цей крок став результатом посиленого контролю компаній штучного інтелекту щодо впливу їхніх чат-ботів на користувачів, особливо молодих, а також після першого протиправного позову про смерть у зв’язку з самогубством каліфорнійського підлітка.
Покращений батьківський контроль
Нові функції, які планується випустити протягом наступних 120 днів разом із ширшими ініціативами щодо психічного здоров’я, покликані дати батькам більше контролю над взаємодією своїх підлітків із ChatGPT. Ключові компоненти включають:
- Підключення облікових записів: батьки та підлітки зможуть пов’язувати свої облікові записи, що дозволить опікунам краще відстежувати використання.
- Параметри відповіді: батьки зможуть налаштувати, як ChatGPT відповідає на запити, узгоджуючи поведінку чат-бота з налаштуванням «відповідного віку».
- Керування історією чату та пам’яттю: Опікуни матимуть можливість вимкнути історію та пам’ять чату, зменшуючи здатність чат-бота запам’ятовувати попередні розмови.
- Виявлення кризових ситуацій і сповіщення: розробляється нова функція, яка повідомлятиме батьків, коли ChatGPT виявляє потенційні моменти гострого стресу. Ця функція вдосконалюється на основі відгуків від команди експертів OpenAI.
Вирішення делікатних розмов і забезпечення безпеки
Окрім батьківського контролю, OpenAI також покращує здатність чат-бота обробляти делікатні теми. Компанія планує розширити свою глобальну мережу лікарів і представити «маршрутизатор реального часу». Це дозволить інтелектуально переключитися на більш спеціалізовані моделі міркувань, наприклад GPT-5-мислення, коли виникають делікатні теми. Мета полягає в тому, щоб надати більш корисні та вигідні відповіді, незалежно від початкової обраної моделі.
Широкий контекст: безпека ШІ та психічне здоров’я підлітків
Цей крок відображає зростаючу тенденцію посиленого контролю над компаніями, що розробляють штучний інтелект. Протягом останнього року ці компанії зіткнулися з критикою за те, що вони не змогли належним чином вирішити питання безпеки щодо своїх чат-ботів, які все частіше використовуються молодими користувачами як емоційні супутники. Незважаючи на заходи безпеки, були виявлені недоліки, оскільки часто можна обійти встановлені механізми захисту та отримати проблемні відповіді.
Більш широке обговорення безпеки дітей в Інтернеті
Запровадження батьківського контролю є стандартною відповіддю технологічних і соціальних медіа-компаній, які реагують на занепокоєння щодо впливу на психічне здоров’я підлітків, впливу шкідливого контенту та потенціалу онлайн-хижацтва. Однак експерти попереджають, що ці функції залежать від участі батьків і не є надійними. Інші запропоновані рішення, такі як обмеження магазину додатків і перевірка віку онлайн, залишаються суперечливими.
Хоча засоби батьківського контролю можуть забезпечити певний нагляд, відповідальність, зрештою, лежить на батьках, які активно контролюють і направляють спілкування своїх дітей в Інтернеті.
Відповідь галузі на проблеми безпеки
Відповідь OpenAI відображає подібні оголошення інших компаній штучного інтелекту. Anthropic нещодавно оновив свій чат-бот Claude, щоб автоматично зупиняти потенційно шкідливі взаємодії, включно з сексуальним контентом за участю неповнолітніх. Meta, зіткнувшись з громадською критикою, обмежила доступ до своїх аватарів штучного інтелекту для підлітків, обмеживши кількість чат-ботів і навчивши їх уникати таких тем, як самоушкодження та неприйнятні романтичні стосунки.
Запровадження цих засобів захисту вказує на зрушення в бік більшої відповідальності в індустрії штучного інтелекту, оскільки компанії прагнуть збалансувати інновації з безпекою користувачів і вирішити ширший соціальний вплив технологій, що швидко розвиваються. Ці зусилля є кроком до створення безпечніших екосистем штучного інтелекту, визнаючи критичну необхідність захисту вразливих користувачів.





























