Las empresas de inteligencia artificial fortalecen las protecciones en medio de escándalos de abuso

20

OpenAI y Google están reforzando sus salvaguardias contra imágenes abusivas generadas por IA en respuesta a la explotación generalizada de herramientas de IA generativa, incluido en particular un escándalo que involucra a Grok de xAI de Elon Musk. Los incidentes recientes subrayan la necesidad urgente de medidas de seguridad más sólidas a medida que estas tecnologías evolucionan rápidamente.

El escándalo de Grok y sus consecuencias

A principios de 2026, se utilizó Grok, la herramienta de inteligencia artificial de xAI, para crear aproximadamente 3 millones de imágenes sexualizadas en 11 días, incluidas aproximadamente 23 000 imágenes que contienen material de abuso sexual infantil (CSAM, por sus siglas en inglés). Este abuso masivo fue identificado por el Centro para Contrarrestar el Odio Digital, destacando la facilidad con la que la IA generativa puede usarse como arma con fines maliciosos.

X (anteriormente Twitter) detuvo temporalmente las capacidades de edición de imágenes de Grok en su plataforma luego de la protesta pública, aunque la funcionalidad sigue estando disponible para suscriptores de pago a través de aplicaciones y sitios web independientes. El incidente provocó una acción inmediata por parte de los competidores, ya que reveló la rapidez con la que se puede explotar la IA para contenido dañino.

Respuesta de OpenAI: corrección de errores y equipo rojo

OpenAI ha abordado vulnerabilidades en ChatGPT que permitían a los usuarios eludir la moderación de contenido. Los investigadores de Mindgard demostraron cómo las “incitaciones adversas” (elaboración de instrucciones maliciosas) podían engañar al chatbot para que generara imágenes explícitas. OpenAI reconoció la falla a principios de febrero e implementó una solución pocos días después de haber sido alertado por Mindgard, destacando la importancia de las auditorías de seguridad externas.

“Asumir que los usuarios motivados no intentarán eludir las salvaguardas es un error de cálculo estratégico”, escribió Mindgard en una publicación de blog.

Este enfoque, en el que investigadores externos prueban intencionalmente los modelos de IA en busca de debilidades, imita ataques del mundo real y obliga a los desarrolladores a repetir sus medidas de seguridad.

Google simplifica la denuncia de abusos

Google ha simplificado su proceso de eliminación de imágenes explícitas de la Búsqueda. Los usuarios ahora pueden denunciar fácilmente imágenes que consideren no consensuadas o abusivas, seleccionando varias imágenes a la vez y realizando un seguimiento de sus informes. La empresa también ha reafirmado su política de prohibir el uso de IA para actividades ilegales o dañinas, como generar imágenes íntimas.

Si bien existen leyes como la Ley Take It Down de 2025, grupos de defensa como el Centro Nacional sobre Explotación Sexual están presionando para que se establezcan regulaciones más integrales para proteger a las víctimas.

La batalla en curso por la seguridad de la IA

A pesar de estos esfuerzos, no existe una solución infalible para prevenir el abuso. Los desarrolladores de IA deben permanecer alerta y responder rápidamente a las amenazas emergentes. La rápida evolución de estas tecnologías exige pruebas, refinamiento y colaboración continuos entre empresas, investigadores y formuladores de políticas.

La conclusión clave es que la seguridad de la IA no es una solución única, sino un proceso continuo. Los desarrolladores deben asumir la persistencia de los actores maliciosos y fortalecer proactivamente las medidas de seguridad para proteger a los usuarios.