Memories.ai é pioneira no desenvolvimento de uma “camada de memória visual” para inteligência artificial, concentrando-se em permitir que os sistemas de IA se lembrem e recuperem dados visuais – uma capacidade atualmente ausente na maioria das aplicações do mundo físico. A empresa, fundada por Shawn Shen e Ben Zhou, aborda uma lacuna crítica no desenvolvimento da IA: a capacidade das máquinas aprenderem e agirem de acordo com experiências visuais passadas.
A necessidade de memória visual
Atualmente, a IA se destaca no mundo digital, mas tem dificuldade para aplicar as experiências aprendidas em cenários do mundo real. Isso ocorre porque a maioria dos avanços em IA prioriza a memória baseada em texto, que é mais fácil de estruturar e indexar do que dados visuais. O mundo físico opera à vista, e a IA operando neste domínio requer uma maneira de reter e recuperar informações visuais. É aqui que entra Memories.ai.
Os fundadores reconheceram essa necessidade enquanto trabalhavam nos óculos inteligentes Ray-Ban da Meta. Eles observaram que se os usuários não conseguissem recuperar de forma confiável os dados visuais gravados, a utilidade dos óculos seria limitada. Isso os levou a deixar a Meta e estabelecer a Memories.ai em 2024, arrecadando US$ 16 milhões em financiamento inicial até o momento.
Parceria com Nvidia
Memories.ai está colaborando com a Nvidia, aproveitando ferramentas como Cosmos-Reason 2 (um modelo de linguagem de visão) e Nvidia Metropolis (um aplicativo de pesquisa de vídeo) para acelerar sua tecnologia de memória visual. Esta parceria destaca o interesse crescente da indústria na IA que pode “ver” e lembrar. A mudança para emparelhar seu trabalho com a infraestrutura da Nvidia sugere a crença de que o futuro da IA dependerá fortemente do processamento visual de alto desempenho.
Coleta de dados e desenvolvimento de modelo
Um desafio importante na construção da memória visual é incorporar e indexar efetivamente dados de vídeo para armazenamento e recuperação. Memories.ai desenvolveu seu próprio Large Visual Memory Model (LVMM) em julho de 2025, comparável ao Gemini Embedding 2 do Google, mas adaptado para informações visuais. Para treinar esse modelo, a empresa criou o LUCI, um dispositivo de hardware proprietário usado por coletores de dados para capturar imagens de treinamento. A decisão de construir hardware personalizado demonstra as limitações da tecnologia de gravação de vídeo existente para atender às necessidades de treinamento em IA.
Perspectivas Futuras
Memories.ai já está trabalhando com grandes empresas de wearables (embora as identidades permaneçam não divulgadas) e garantiu uma parceria com a Qualcomm para rodar seus modelos em processadores Snapdragon. A empresa continua focada no modelo e na infraestrutura subjacentes, em vez de se tornar um fabricante de hardware.
“Estamos mais focados no modelo e na infraestrutura, porque, em última análise, acreditamos que o mercado de wearables e robótica chegará, mas provavelmente não será agora”, diz Shen.
Isto sugere uma visão de longo prazo onde a memória visual se torna uma camada fundamental para aplicações mais amplas de IA em robótica e realidade aumentada. A abordagem da empresa tem menos a ver com produtos de consumo imediato e mais com a construção da tecnologia central que impulsionará a próxima geração de dispositivos inteligentes.
O desenvolvimento da memória visual de IA ainda está em seus estágios iniciais, mas o trabalho de Memories.ai marca um passo crítico em direção a máquinas que possam realmente “ver” e aprender com o mundo físico.





























