Anthropic ha annunciato una soluzione a un problema persistente nello sviluppo degli agenti IA: conservazione della memoria su attività estese. Il problema, comune nelle applicazioni aziendali, vede gli agenti “dimenticare” le istruzioni o il contesto precedenti man mano che le sessioni si allungano, portando a comportamenti incoerenti e inaffidabili. Ciò è importante perché le implementazioni dell’intelligenza artificiale nel mondo reale richiedono agenti che possano operare in modo autonomo per ore, giorni o anche di più senza perdere di vista gli obiettivi.
La sfida della memoria dell’agente
I modelli di base, compresi quelli che alimentano gli agenti IA, sono limitati dalle finestre di contesto, ovvero dalla quantità di testo che possono elaborare contemporaneamente. Per i progetti complessi, gli agenti operano inevitabilmente su più sessioni, creando un divario critico nella continuità. Senza una memoria affidabile, possono ripetere il lavoro, prendere decisioni illogiche o dichiarare prematuramente completate le attività. Ciò ha stimolato un’ondata di soluzioni incentrate sulla memoria, con aziende come LangChain, Memobase e OpenAI (Swarm) che offrono framework per colmare questa lacuna. Anche la ricerca accademica sta accelerando, con progetti come Memp e Nested Learning Paradigm di Google che ampliano i confini della memoria agente.
La soluzione in due parti di Anthropic
L’approccio di Anthropic affronta queste limitazioni all’interno del suo Claude Agent SDK. Invece di fare affidamento esclusivamente su finestre di contesto più ampie, l’azienda propone un sistema a due agenti:
– Agente inizializzatore: configura l’ambiente, registrando i progressi e le dipendenze.
– Agente di codifica: apporta miglioramenti incrementali in ogni sessione, lasciando dietro di sé aggiornamenti chiari per l’iterazione successiva.
Ciò imita il flusso di lavoro degli ingegneri software umani, che suddividono attività complesse in passaggi gestibili, documentano i progressi e si basano sul lavoro precedente. Anthropic ha scoperto che semplicemente sollecitare un agente con un obiettivo vago (“costruire un clone di claude.ai”) provocava due fallimenti comuni: o l’agente tentava troppo in una volta, superando i limiti del contesto, oppure dichiarava prematuramente il completamento dopo aver creato solo una soluzione parziale.
Test e ricerca futura
I ricercatori di Anthropic hanno integrato strumenti di test nell’agente di codifica, consentendogli di identificare e correggere errori oltre a quanto suggerito dal solo codice. L’azienda riconosce che questa è solo una potenziale soluzione in un campo in rapida evoluzione. Non è chiaro se un singolo agente di codifica universale supererà le strutture multi-agente specializzate.
I test attuali si concentrano sullo sviluppo di app Web full-stack, ma Anthropic ritiene che i principi siano trasferibili ad altri domini, tra cui la ricerca scientifica e la modellazione finanziaria. Il punto fondamentale è chiaro: una memoria agente affidabile a lungo termine richiede ambienti strutturati, progressi incrementali e registrazioni coerenti, rispecchiando pratiche comprovate di ingegneria del software umana.
