Anthropic ha anunciado una solución a un problema persistente en el desarrollo de agentes de IA: retención de memoria durante tareas extendidas. El problema, común en aplicaciones empresariales, hace que los agentes “olviden” instrucciones o contexto previos a medida que las sesiones se alargan, lo que lleva a un comportamiento inconsistente y poco confiable. Esto es importante porque las implementaciones de IA en el mundo real exigen agentes que puedan operar de forma autónoma durante horas, días o incluso más sin perder de vista sus objetivos.
El desafío de la memoria del agente
Los modelos básicos, incluidos los que impulsan a los agentes de IA, están limitados por las ventanas de contexto: la cantidad de texto que pueden procesar a la vez. Para proyectos complejos, los agentes inevitablemente operan en múltiples sesiones, creando una brecha crítica en la continuidad. Sin una memoria confiable, pueden repetir el trabajo, tomar decisiones ilógicas o declarar completadas las tareas prematuramente. Esto ha estimulado un aumento en las soluciones centradas en la memoria, con empresas como LangChain, Memobase y OpenAI (Swarm) que ofrecen marcos para cerrar esta brecha. La investigación académica también se está acelerando, con proyectos como Memp y Nested Learning Paradigm de Google ampliando los límites de la memoria agente.
La solución de dos partes de Anthropic
El enfoque de Anthropic aborda estas limitaciones dentro de su Claude Agent SDK. En lugar de depender únicamente de ventanas de contexto más amplias, la empresa propone un sistema de dos agentes:
– Agente inicializador: Configura el entorno, registra el progreso y las dependencias.
– Agente de codificación: Realiza mejoras incrementales en cada sesión, dejando actualizaciones claras para la siguiente iteración.
Esto imita el flujo de trabajo de los ingenieros de software humanos, que dividen las tareas complejas en pasos manejables, documentan el progreso y aprovechan el trabajo anterior. Anthropic descubrió que simplemente solicitar a un agente un objetivo vago (“construir un clon de claude.ai”) resultaba en dos fallas comunes: o el agente intentaba demasiado a la vez, excediendo los límites del contexto, o declaraba prematuramente su finalización después de construir solo una solución parcial.
Pruebas e investigaciones futuras
Los investigadores de Anthropic integraron herramientas de prueba en el agente de codificación, permitiéndole identificar y corregir errores más allá de lo que sugiere el código por sí solo. La empresa reconoce que esta es sólo una solución potencial en un campo en rápida evolución. Aún no está claro si un único agente de codificación universal superará a las estructuras especializadas de múltiples agentes.
Las pruebas actuales se centran en el desarrollo completo de aplicaciones web, pero Anthropic cree que los principios son transferibles a otros dominios, incluida la investigación científica y la modelización financiera. La conclusión principal es clara: una memoria de agente confiable a largo plazo requiere entornos estructurados, progreso incremental y registros consistentes, lo que refleja las prácticas comprobadas de ingeniería de software humano.
