Anthropic ogłosił rozwiązanie długotrwałego problemu w rozwoju agentów AI: utrzymanie pamięci podczas długich zadań. Ten problem, powszechny w aplikacjach korporacyjnych, powoduje, że agenci „zapominają” poprzednich instrukcji lub kontekstu w miarę wydłużania się sesji, co powoduje niespójne i zawodne zachowanie. Jest to ważne, ponieważ wdrożenia sztucznej inteligencji w świecie rzeczywistym wymagają agentów, którzy mogą działać autonomicznie przez wiele godzin, dni, a nawet dłużej, nie tracąc z oczu swoich celów.
Problem z pamięcią agenta
Podstawowe modele, w tym te stosowane w agentach AI, są ograniczone rozmiarem okna kontekstowego – ilością tekstu, jaki mogą przetworzyć jednocześnie. Pracując nad złożonymi projektami, agenci nieuchronnie pracują w wielu sesjach, tworząc krytyczną lukę w ciągłości. Bez niezawodnej pamięci mogą powtarzać pracę, podejmować nielogiczne decyzje lub deklarować przedwczesne wykonanie zadania. Doprowadziło to do gwałtownego wzrostu liczby rozwiązań skoncentrowanych na pamięci, a firmy takie jak LangChain, Memobase i OpenAI (Swarm) oferują platformy umożliwiające wypełnienie tej luki. Badania akademickie również nabierają tempa, a projekty takie jak Memp i Nested Learning Paradigm firmy Google przesuwają granice pamięci agentów.
Antropiczne rozwiązanie dwuczęściowe
Podejście Anthropic ma na celu przezwyciężenie tych ograniczeń w ramach pakietu SDK Claude Agent. Zamiast polegać wyłącznie na zwiększaniu rozmiaru okna kontekstowego, firma oferuje system dwóch agentów:
– Agent inicjujący: Konfiguruje środowisko poprzez rejestrowanie postępu i zależności.
– Agent kodujący: wprowadza stopniowe ulepszenia w każdej sesji, pozostawiając jasne aktualizacje do następnej iteracji.
Naśladuje to przepływ pracy twórców oprogramowania, którzy dzielą złożone zadania na łatwe do wykonania etapy, dokumentują postęp i opierają się na wcześniejszej pracy. Anthropic odkrył, że samo wyznaczenie agentowi niejasnego celu („utwórz klon claude.ai”) skutkuje dwoma typowymi błędami: albo agent próbował zrobić za dużo na raz, przekraczając ograniczenia kontekstu, albo przedwcześnie zadeklarował zakończenie pracy po wygenerowaniu jedynie częściowego rozwiązania.
Testowanie i przyszłe badania
Badacze antropijni zintegrowali narzędzia testowe z agentem kodującym, umożliwiając mu identyfikowanie i poprawianie błędów, które nie wynikały w oczywisty sposób z kodu. Firma zdaje sobie sprawę, że jest to tylko jedno z możliwych rozwiązań w szybko rozwijającym się obszarze. Nie jest jasne, czy uniwersalny agent kodujący będzie działał lepiej niż wyspecjalizowane struktury wieloagentowe.
Obecne testy koncentrują się na opracowywaniu w pełni funkcjonalnych aplikacji internetowych, ale Anthropic uważa, że zasady te mają zastosowanie w innych obszarach, w tym w badaniach naukowych i modelowaniu finansowym. Kluczowy wniosek jest jasny: Niezawodna pamięć długoterminowa dla agentów wymaga zorganizowanego środowiska, przyrostowego postępu i spójnego rejestrowania — odzwierciedlającego sprawdzone praktyki tworzenia oprogramowania przez ludzi.





























