Anthropic Заявляет о Прорыве в Долгосрочной Памяти ИИ-Агентов

3

Anthropic объявила о решении давней проблемы в разработке ИИ-агентов: сохранении памяти при выполнении длительных задач. Эта проблема, часто встречающаяся в корпоративных приложениях, приводит к тому, что агенты «забывают» предыдущие инструкции или контекст по мере увеличения продолжительности сеансов, что вызывает непоследовательное и ненадежное поведение. Это важно, потому что реальные развертывания ИИ требуют агентов, способных автономно работать в течение часов, дней или даже дольше, не теряя при этом из виду свои цели.

Проблема Памяти Агентов

Базовые модели, включая те, которые используются в ИИ-агентах, ограничены размером контекстного окна — объемом текста, который они могут обработать одновременно. При работе над сложными проектами агенты неизбежно работают в нескольких сеансах, создавая критический разрыв в преемственности. Без надежной памяти они могут повторять работу, принимать нелогичные решения или преждевременно объявлять задачу завершенной. Это привело к всплеску решений, ориентированных на память, при этом компании, такие как LangChain, Memobase и OpenAI (Swarm), предлагают фреймворки для преодоления этого разрыва. Академические исследования также ускоряются: проекты, такие как Memp и Nested Learning Paradigm от Google, расширяют границы памяти агентов.

Двухкомпонентное Решение от Anthropic

Подход Anthropic направлен на преодоление этих ограничений в рамках ее Claude Agent SDK. Вместо того чтобы полагаться исключительно на увеличение размера контекстного окна, компания предлагает систему из двух агентов:
Агент-Инициализатор: Настраивает среду, регистрируя прогресс и зависимости.
Кодирующий Агент: Вносит постепенные улучшения в каждом сеансе, оставляя четкие обновления для следующей итерации.

Это имитирует рабочий процесс разработчиков программного обеспечения, которые разбивают сложные задачи на управляемые шаги, документируют прогресс и основываются на предыдущей работе. Anthropic обнаружила, что простое указание агенту расплывчатой цели («создать клон claude.ai») приводило к двум распространенным ошибкам: либо агент пытался сделать слишком много сразу, превышая ограничения контекста, либо преждевременно объявлял о завершении после создания только частичного решения.

Тестирование и Будущие Исследования

Исследователи Anthropic интегрировали инструменты тестирования в кодирующего агента, что позволило ему выявлять и исправлять ошибки, которые не очевидны из кода. Компания признает, что это лишь одно из возможных решений в быстро развивающейся области. Остается неясным, превзойдет ли универсальный кодирующий агент специализированные многоагентные структуры.

Текущие тесты сосредоточены на разработке полнофункциональных веб-приложений, но Anthropic считает, что принципы применимы и к другим областям, включая научные исследования и финансовое моделирование. Основной вывод очевиден: надежная долгосрочная память агентов требует структурированной среды, постепенного прогресса и последовательной регистрации — что отражает проверенные методы разработки программного обеспечения человеком.