Memories.ai : Construire la mémoire visuelle de l’IA pour les appareils portables et la robotique

17

Memories.ai est pionnier dans le développement d’une « couche de mémoire visuelle » pour l’intelligence artificielle, visant à permettre aux systèmes d’IA de mémoriser et de rappeler des données visuelles – une capacité qui fait actuellement défaut dans la plupart des applications du monde physique. L’entreprise, fondée par Shawn Shen et Ben Zhou, comble une lacune critique dans le développement de l’IA : la capacité des machines à apprendre des expériences visuelles passées et à agir en conséquence.

Le besoin de mémoire visuelle

Actuellement, l’IA excelle dans le domaine numérique, mais a du mal à appliquer les expériences acquises à des scénarios du monde réel. En effet, la plupart des avancées de l’IA donnent la priorité à la mémoire textuelle, qui est plus facile à structurer et à indexer que les données visuelles. Le monde physique fonctionne à vue, et l’IA opérant dans ce domaine nécessite un moyen de conserver et de rappeler les informations visuelles. C’est là qu’intervient Memories.ai.

Les fondateurs ont reconnu ce besoin en travaillant sur les lunettes intelligentes Ray-Ban de Meta. Ils ont observé que si les utilisateurs ne pouvaient pas se souvenir de manière fiable des données visuelles enregistrées, l’utilité des lunettes était limitée. Cela les a amenés à quitter Meta et à créer Memories.ai en 2024, levant ainsi 16 millions de dollars de financement de démarrage à ce jour.

Partenariat avec Nvidia

Memories.ai collabore avec Nvidia, en exploitant des outils tels que Cosmos-Reason 2 (un modèle de langage de vision) et Nvidia Metropolis (une application de recherche vidéo) pour accélérer sa technologie de mémoire visuelle. Ce partenariat met en évidence l’intérêt croissant de l’industrie pour l’IA capable de « voir » et de mémoriser. La décision d’associer leur travail à l’infrastructure de Nvidia suggère la conviction que l’avenir de l’IA reposera fortement sur un traitement visuel haute performance.

Collecte de données et développement de modèles

L’un des principaux défis de la création d’une mémoire visuelle consiste à intégrer et indexer efficacement les données vidéo à des fins de stockage et de rappel. Memories.ai a développé son propre modèle de mémoire visuelle large (LVMM) en juillet 2025, comparable au Gemini Embedding 2 de Google mais adapté aux informations visuelles. Pour entraîner ce modèle, la société a créé LUCI, un dispositif matériel exclusif porté par les collecteurs de données pour capturer des images de formation. La décision de construire du matériel personnalisé démontre les limites de la technologie d’enregistrement vidéo existante pour répondre aux besoins de formation en IA.

Perspectives d’avenir

Memories.ai travaille déjà avec de grandes entreprises de wearables (bien que les identités restent confidentielles) et a conclu un partenariat avec Qualcomm pour exécuter ses modèles sur des processeurs Snapdragon. L’entreprise reste concentrée sur le modèle et l’infrastructure sous-jacents plutôt que de devenir un fabricant de matériel.

« Nous nous concentrons davantage sur le modèle et l’infrastructure, car nous pensons qu’à terme, le marché des appareils portables et de la robotique viendra, mais ce n’est probablement pas le cas maintenant », déclare Shen.

Cela suggère une vision à long terme dans laquelle la mémoire visuelle devient une couche fondamentale pour des applications plus larges de l’IA en robotique et en réalité augmentée. L’approche de l’entreprise porte moins sur les produits de consommation immédiate que sur la création de la technologie de base qui alimentera la prochaine génération d’appareils intelligents.

Le développement de la mémoire visuelle de l’IA en est encore à ses débuts, mais le travail de Memories.ai marque une étape cruciale vers des machines capables de véritablement « voir » et apprendre du monde physique.