OpenAI представляет средства родительского контроля для ChatGPT в связи с растущими опасениями по поводу безопасности

64

OpenAI реагирует на растущую обеспокоенность по поводу использования своего чат-бота, ChatGPT, анонсируя новый набор средств родительского контроля. Этот шаг следует за усиленным контролем за компаниями, разрабатывающими искусственный интеллект, в связи с влиянием их чат-ботов на пользователей, особенно молодых, и происходит после первого иска о непреднамеренной смерти, связанного с самоубийством подростка из Калифорнии.

Улучшенные инструменты родительского контроля

Новые функции, запланированные к выпуску в течение следующих 120 дней вместе с более широкими инициативами в области психического здоровья, призваны предоставить родителям больше контроля над взаимодействием их подростков с ChatGPT. Ключевые компоненты включают:

  • Привязка аккаунтов: Родители и подростки смогут привязывать свои аккаунты, что позволит опекунам лучше отслеживать использование.
  • Настройки ответов: Родители смогут настраивать то, как ChatGPT отвечает на запросы, выравнивая поведение чат-бота с параметром «подходящим для возраста».
  • История чата и управление памятью: Опекуны получат возможность отключать историю чата и память, снижая способность чат-бота запоминать предыдущие разговоры.
  • Обнаружение кризисных ситуаций и уведомления: Разрабатывается новая функция, которая будет уведомлять родителей, когда ChatGPT обнаруживает потенциальные моменты острого стресса. Эта функция уточняется с учетом отзывов экспертной группы OpenAI.

Решение проблем деликатных разговоров и обеспечение безопасности

Помимо средств родительского контроля, OpenAI также улучшает способность чат-бота обрабатывать деликатные темы. Компания планирует расширить свою глобальную сеть врачей и внедрить «маршрутизатор в реальном времени». Это позволит интеллектуально переключать разговоры на более специализированные модели рассуждений, такие как GPT-5-thinking, когда возникают деликатные темы. Цель состоит в том, чтобы предоставить более полезные и выгодные ответы, независимо от выбранной первоначальной модели.

Более широкий контекст: безопасность ИИ и психическое здоровье подростков

Этот шаг отражает растущую тенденцию усиленного контроля за компаниями, разрабатывающими искусственный интеллект. За последний год эти компании столкнулись с критикой за то, что не смогли должным образом решить проблемы безопасности своих чат-ботов, которые все чаще используются молодыми пользователями в качестве эмоциональных компаньонов. Несмотря на меры безопасности, были выявлены недостатки, поскольку часто можно обойти установленные защитные механизмы и получить проблемные ответы.

Более широкая дискуссия о безопасности детей в интернете

Введение средств родительского контроля является стандартным ответом технологических и социальных сетей, отвечающих на опасения по поводу влияния на психическое здоровье подростков, воздействию вредоносного контента и потенциалу онлайн-хищничества. Однако эксперты предупреждают, что эти функции зависят от участия родителей и не являются безотказными. Другие предложенные решения, такие как ограничения в магазинах приложений и онлайн-верификация возраста, остаются спорными.

Хотя средства родительского контроля могут обеспечить определенную степень надзора, ответственность в конечном счете лежит на родителях, которые активно контролируют и направляют онлайн-взаимодействия своих детей.

Реагирование отрасли на проблемы безопасности

Реакция OpenAI отражает аналогичные объявления других компаний, разрабатывающих искусственный интеллект. Anthropic недавно обновила своего чат-бота Claude, чтобы он автоматически прекращал потенциально вредные взаимодействия, включая те, которые связаны с сексуальным контентом с участием несовершеннолетних. Meta, столкнувшись с общественной критикой, ограничила доступность своих ИИ-аватаров для подростков, ограничив количество чат-ботов и обучая их избегать таких тем, как самоповреждение и неподобающие романтические отношения.

Введение этих защитных механизмов указывает на сдвиг в сторону большей ответственности внутри индустрии искусственного интеллекта, поскольку компании стремятся сбалансировать инновации с безопасностью пользователей и решать более широкое социальное воздействие быстро развивающейся технологии. Эти усилия являются шагом к созданию более безопасных экосистем искусственного интеллекта, признавая критическую необходимость защиты уязвимых пользователей.