Memories.ai: het visuele geheugen van AI bouwen voor wearables en robotica

8

Memories.ai is een pionier in de ontwikkeling van een ‘visuele geheugenlaag’ voor kunstmatige intelligentie, waarbij de nadruk ligt op het mogelijk maken van AI-systemen om visuele gegevens te onthouden en op te roepen – een mogelijkheid die momenteel ontbreekt in de meeste toepassingen in de fysieke wereld. Het bedrijf, opgericht door Shawn Shen en Ben Zhou, pakt een kritieke leemte in de AI-ontwikkeling aan: het vermogen van machines om te leren van en te reageren op visuele ervaringen uit het verleden.

De behoefte aan visueel geheugen

Momenteel blinkt AI uit op digitaal gebied, maar heeft moeite om de geleerde ervaringen toe te passen op scenario’s uit de echte wereld. Dit komt omdat de meeste AI-ontwikkelingen prioriteit geven aan op tekst gebaseerd geheugen, dat gemakkelijker te structureren en te indexeren is dan visuele gegevens. De fysieke wereld opereert op zicht, en AI die in dit domein actief is, vereist een manier om visuele informatie vast te houden en terug te roepen. Dit is waar Memories.ai tussenbeide komt.

De oprichters onderkenden deze behoefte toen ze aan de slimme Ray-Ban-bril van Meta werkten. Ze merkten op dat als gebruikers de opgenomen visuele gegevens niet betrouwbaar konden herinneren, het nut van de bril beperkt was. Dit bracht hen ertoe om Meta te verlaten en in 2024 Memories.ai op te richten, waarmee ze tot nu toe $ 16 miljoen aan startfinanciering hebben opgehaald.

Partnerschap met Nvidia

Memories.ai werkt samen met Nvidia en maakt gebruik van tools als Cosmos-Reason 2 (een visietaalmodel) en Nvidia Metropolis (een videozoekapplicatie) om de visuele geheugentechnologie te versnellen. Dit partnerschap benadrukt de groeiende belangstelling van de industrie voor AI die kan ‘zien’ en onthouden. De stap om hun werk te koppelen aan de infrastructuur van Nvidia suggereert de overtuiging dat de toekomst van AI sterk zal afhangen van hoogwaardige visuele verwerking.

Gegevensverzameling en modelontwikkeling

Een belangrijke uitdaging bij het opbouwen van visueel geheugen is het effectief inbedden en indexeren van videogegevens voor opslag en terugroeping. Memories.ai ontwikkelde in juli 2025 zijn eigen Large Visual Memory Model (LVMM), vergelijkbaar met Google’s Gemini Embedding 2, maar afgestemd op visuele informatie. Om dit model te trainen, creëerde het bedrijf LUCI, een eigen hardwareapparaat dat door gegevensverzamelaars wordt gedragen om trainingsbeelden vast te leggen. De beslissing om aangepaste hardware te bouwen demonstreert de beperkingen van de bestaande video-opnametechnologie bij het voldoen aan de behoeften van AI-training.

Toekomstperspectief

Memories.ai werkt al samen met grote draagbare bedrijven (hoewel identiteiten niet openbaar worden gemaakt) en heeft een partnerschap gesloten met Qualcomm om zijn modellen op Snapdragon-processors te laten draaien. Het bedrijf blijft gefocust op het onderliggende model en de infrastructuur in plaats van een hardwarefabrikant te worden.

“We zijn meer gefocust op het model en de infrastructuur, omdat we denken dat de markt voor wearables en robotica uiteindelijk zal komen, maar dat is waarschijnlijk nu nog niet het geval”, zegt Shen.

Dit suggereert een langetermijnvisie waarin visueel geheugen een fundamentele laag wordt voor bredere AI-toepassingen in robotica en augmented reality. De aanpak van het bedrijf gaat minder over directe consumentenproducten en meer over het bouwen van de kerntechnologie die de volgende generatie intelligente apparaten zal aandrijven.

De ontwikkeling van AI-visueel geheugen bevindt zich nog in de beginfase, maar het werk van Memories.ai markeert een cruciale stap in de richting van machines die echt kunnen ‘zien’ en leren van de fysieke wereld.