Memories.ai: costruire la memoria visiva dell’intelligenza artificiale per dispositivi indossabili e robotica

9

Memories.ai è pioniere nello sviluppo di uno “strato di memoria visiva” per l’intelligenza artificiale, concentrandosi sull’abilitazione dei sistemi di intelligenza artificiale a ricordare e richiamare dati visivi, una capacità attualmente carente nella maggior parte delle applicazioni del mondo fisico. L’azienda, fondata da Shawn Shen e Ben Zhou, affronta una lacuna critica nello sviluppo dell’intelligenza artificiale: la capacità delle macchine di apprendere e agire in base alle esperienze visive passate.

Il bisogno di memoria visiva

Attualmente, l’intelligenza artificiale eccelle nel regno digitale, ma fatica ad applicare le esperienze apprese agli scenari del mondo reale. Questo perché la maggior parte dei progressi dell’intelligenza artificiale danno priorità alla memoria basata sul testo, che è più facile da strutturare e indicizzare rispetto ai dati visivi. Il mondo fisico funziona a vista e l’intelligenza artificiale che opera in questo dominio richiede un modo per conservare e richiamare le informazioni visive. È qui che entra in gioco Memories.ai.

I fondatori hanno riconosciuto questa esigenza mentre lavoravano sugli occhiali intelligenti Ray-Ban di Meta. Hanno osservato che se gli utenti non riuscivano a ricordare in modo affidabile i dati visivi registrati, l’utilità degli occhiali era limitata. Ciò li ha portati a lasciare Meta e a fondare Memories.ai nel 2024, raccogliendo fino ad oggi 16 milioni di dollari in finanziamenti iniziali.

Partnership con Nvidia

Memories.ai sta collaborando con Nvidia, sfruttando strumenti come Cosmos-Reason 2 (un modello di linguaggio visivo) e Nvidia Metropolis (un’applicazione di ricerca video) per accelerare la sua tecnologia di memoria visiva. Questa partnership evidenzia il crescente interesse del settore per l’intelligenza artificiale in grado di “vedere” e ricordare. La decisione di abbinare il loro lavoro all’infrastruttura di Nvidia suggerisce la convinzione che il futuro dell’intelligenza artificiale dipenderà in larga misura dall’elaborazione visiva ad alte prestazioni.

Raccolta dati e sviluppo del modello

Una sfida chiave nella costruzione della memoria visiva è l’incorporamento e l’indicizzazione efficace dei dati video per l’archiviazione e il richiamo. Memories.ai ha sviluppato il proprio Large Visual Memory Model (LVMM) nel luglio 2025, paragonabile a Gemini Embedding 2 di Google ma su misura per le informazioni visive. Per addestrare questo modello, l’azienda ha creato LUCI, un dispositivo hardware proprietario indossato dai raccoglitori di dati per acquisire filmati di addestramento. La decisione di costruire hardware personalizzato dimostra i limiti della tecnologia di registrazione video esistente nel soddisfare le esigenze della formazione sull’intelligenza artificiale.

Prospettive future

Memories.ai sta già lavorando con le principali aziende di dispositivi indossabili (anche se le identità rimangono riservate) e si è assicurata una partnership con Qualcomm per eseguire i suoi modelli su processori Snapdragon. L’azienda rimane concentrata sul modello e sull’infrastruttura sottostanti piuttosto che diventare un produttore di hardware.

“Siamo più concentrati sul modello e sull’infrastruttura, perché alla fine pensiamo che il mercato dei dispositivi indossabili e della robotica arriverà, ma probabilmente non è adesso”, afferma Shen.

Ciò suggerisce una visione a lungo termine in cui la memoria visiva diventa uno strato fondamentale per applicazioni di intelligenza artificiale più ampie nella robotica e nella realtà aumentata. L’approccio dell’azienda è meno incentrato sui prodotti di consumo immediato e più sullo sviluppo della tecnologia di base che alimenterà la prossima generazione di dispositivi intelligenti.

Lo sviluppo della memoria visiva dell’intelligenza artificiale è ancora nelle sue fasi iniziali, ma il lavoro di Memories.ai segna un passo fondamentale verso macchine che possano veramente “vedere” e imparare dal mondo fisico.