Memories.ai leistet Pionierarbeit bei der Entwicklung einer „visuellen Gedächtnisschicht“ für künstliche Intelligenz und konzentriert sich darauf, KI-Systemen die Möglichkeit zu geben, sich visuelle Daten zu merken und abzurufen – eine Fähigkeit, die derzeit in den meisten Anwendungen in der physischen Welt fehlt. Das von Shawn Shen und Ben Zhou gegründete Unternehmen schließt eine kritische Lücke in der KI-Entwicklung: die Fähigkeit von Maschinen, aus vergangenen visuellen Erfahrungen zu lernen und darauf zu reagieren.
Das Bedürfnis nach visuellem Gedächtnis
Derzeit zeichnet sich KI im digitalen Bereich aus, es fällt ihr jedoch schwer, gelernte Erfahrungen auf Szenarien in der realen Welt anzuwenden. Dies liegt daran, dass die meisten KI-Fortschritte dem textbasierten Speicher Priorität einräumen, der einfacher zu strukturieren und zu indizieren ist als visuelle Daten. Die physische Welt basiert auf dem Sehen, und die in diesem Bereich tätige KI erfordert eine Möglichkeit, visuelle Informationen zu speichern und abzurufen. Hier kommt Memories.ai ins Spiel.
Die Gründer erkannten diesen Bedarf, als sie an der Ray-Ban-Datenbrille von Meta arbeiteten. Sie stellten fest, dass der Nutzen der Brille eingeschränkt war, wenn Benutzer aufgezeichnete visuelle Daten nicht zuverlässig abrufen konnten. Dies führte dazu, dass sie Meta verließen und im Jahr 2024 Memories.ai gründeten und bisher 16 Millionen US-Dollar an Startkapital aufbrachten.
Partnerschaft mit Nvidia
Memories.ai arbeitet mit Nvidia zusammen und nutzt Tools wie Cosmos-Reason 2 (ein Vision-Sprachmodell) und Nvidia Metropolis (eine Videosuchanwendung), um seine visuelle Gedächtnistechnologie zu beschleunigen. Diese Partnerschaft unterstreicht das wachsende Interesse der Branche an KI, die „sehen“ und sich erinnern kann. Der Schritt, ihre Arbeit mit der Infrastruktur von Nvidia zu koppeln, lässt darauf schließen, dass die Zukunft der KI stark von einer leistungsstarken visuellen Verarbeitung abhängen wird.
Datenerfassung und Modellentwicklung
Eine zentrale Herausforderung beim Aufbau des visuellen Gedächtnisses besteht darin, Videodaten effektiv einzubetten und zu indizieren, um sie zu speichern und abzurufen. Memories.ai entwickelte im Juli 2025 sein eigenes Large Visual Memory Model (LVMM), vergleichbar mit Googles Gemini Embedding 2, aber auf visuelle Informationen zugeschnitten. Um dieses Modell zu trainieren, hat das Unternehmen LUCI entwickelt, ein proprietäres Hardwaregerät, das von Datensammlern getragen wird, um Trainingsmaterial zu erfassen. Die Entscheidung, maßgeschneiderte Hardware zu bauen, zeigt die Grenzen der bestehenden Videoaufzeichnungstechnologie bei der Erfüllung der Anforderungen des KI-Trainings.
Zukunftsausblick
Memories.ai arbeitet bereits mit großen Wearable-Unternehmen zusammen (die Identität bleibt jedoch geheim) und hat sich eine Partnerschaft mit Qualcomm gesichert, um seine Modelle auf Snapdragon-Prozessoren laufen zu lassen. Das Unternehmen konzentriert sich weiterhin auf das zugrunde liegende Modell und die Infrastruktur, anstatt sich auf einen Hardware-Hersteller zu konzentrieren.
„Wir konzentrieren uns mehr auf das Modell und die Infrastruktur, weil wir letztendlich glauben, dass der Markt für Wearables und Robotik kommen wird, aber das ist jetzt wahrscheinlich noch nicht der Fall“, sagt Shen.
Dies deutet auf eine langfristige Vision hin, bei der das visuelle Gedächtnis eine grundlegende Ebene für umfassendere KI-Anwendungen in der Robotik und Augmented Reality wird. Beim Ansatz des Unternehmens geht es weniger um unmittelbare Verbraucherprodukte als vielmehr um die Entwicklung der Kerntechnologie, die die nächste Generation intelligenter Geräte antreiben wird.
Die Entwicklung des visuellen KI-Gedächtnisses befindet sich noch in einem frühen Stadium, aber die Arbeit von Memories.ai markiert einen entscheidenden Schritt hin zu Maschinen, die die physische Welt wirklich „sehen“ und daraus lernen können.
