OpenAI presenta controles parentales para ChatGPT en medio de crecientes preocupaciones de seguridad

60

OpenAI está respondiendo a las crecientes preocupaciones sobre el uso de su chatbot, ChatGPT, al anunciar un nuevo conjunto de controles parentales. Esta medida se produce cuando las empresas de inteligencia artificial enfrentan un mayor escrutinio por el impacto de sus chatbots en los usuarios, particularmente en los individuos más jóvenes, y sigue a la primera demanda por muerte por negligencia de la compañía derivada del suicidio de un adolescente de California.

Herramientas mejoradas de supervisión parental

Las nuevas funciones, cuyo lanzamiento está previsto para los próximos 120 días junto con iniciativas de salud mental más amplias, tienen como objetivo brindar a los padres más control sobre las interacciones de sus hijos adolescentes con ChatGPT. Los componentes clave incluyen:

  • Vinculación de cuentas: Los padres y los usuarios adolescentes podrán vincular sus cuentas, lo que permitirá a los cuidadores una mayor visibilidad del uso.
  • Configuración de respuesta: Los padres pueden ajustar la forma en que ChatGPT responde a las indicaciones, alineando el comportamiento del chatbot con la configuración “apropiada para la edad” del modelo.
  • Historial de chat y gestión de la memoria: Los cuidadores tendrán la opción de desactivar el historial de chat y la memoria, lo que reduce la capacidad del chatbot para recordar conversaciones anteriores.
  • Detección y notificaciones de angustia: Se está desarrollando una nueva función que notificará a los padres cuando ChatGPT detecte posibles momentos de angustia aguda. Esta característica se está perfeccionando con aportaciones del panel de expertos de OpenAI.

Abordar conversaciones delicadas y seguridad

Más allá de los controles parentales, OpenAI también está mejorando la capacidad del chatbot para manejar temas delicados. La empresa planea ampliar su red mundial de médicos e implementar un “enrutador en tiempo real”. Esto cambiará de manera inteligente las conversaciones a modelos de razonamiento más especializados, como el pensamiento GPT-5, cuando surjan temas delicados. El objetivo es proporcionar respuestas más útiles y beneficiosas, independientemente del modelo inicial seleccionado.

Contexto más amplio: seguridad de la IA y salud mental de los adolescentes

Esta medida refleja una tendencia creciente de mayor escrutinio dirigido a las empresas de inteligencia artificial. Durante el año pasado, estas empresas se enfrentaron a críticas por no abordar adecuadamente los problemas de seguridad con sus chatbots, que los usuarios más jóvenes utilizan cada vez más como compañeros emocionales. A pesar de las medidas de seguridad, se han expuesto limitaciones, ya que a menudo es posible eludir las salvaguardas establecidas y provocar respuestas problemáticas.

El debate más amplio sobre la seguridad infantil en línea

La introducción de controles parentales representa una respuesta estándar por parte de las empresas de tecnología y redes sociales que abordan las preocupaciones sobre el impacto en la salud mental de los adolescentes, la exposición a contenido dañino y el potencial de comportamiento depredador en línea. Sin embargo, los expertos advierten que estas funciones dependen de la participación de los padres y no son infalibles. Otras soluciones propuestas, como las restricciones del mercado de aplicaciones y la verificación de edad en línea, siguen siendo polémicas.

Si bien los controles parentales pueden ofrecer cierto grado de supervisión, en última instancia, la responsabilidad de monitorear y guiar activamente las interacciones en línea de sus hijos recae en los padres.

Respuesta de toda la industria a las preocupaciones de seguridad

La respuesta de OpenAI refleja anuncios similares de otras empresas de IA. Anthropic actualizó recientemente su chatbot, Claude, para finalizar automáticamente interacciones potencialmente dañinas, incluidas aquellas que involucran contenido sexual que involucra a menores. Meta, enfrentando críticas públicas, ha limitado la disponibilidad de sus avatares de IA para usuarios adolescentes, restringiendo la cantidad de chatbots y capacitándolos para evitar temas como la autolesión y las interacciones románticas inapropiadas.

La introducción de estas salvaguardas indica un cambio hacia una mayor responsabilidad dentro de la industria de la IA a medida que las empresas se esfuerzan por equilibrar la innovación con la seguridad del usuario y abordar el impacto social más amplio de la tecnología en rápida evolución. Estos esfuerzos marcan un paso hacia la construcción de ecosistemas de IA más seguros, reconociendo la necesidad crítica de proteger a los usuarios vulnerables.