Memories.ai является пионером в разработке «визуального слоя памяти» для искусственного интеллекта, уделяя особое внимание возможности ИИ-системам запоминать и воспроизводить визуальные данные — способность, которой в настоящее время не хватает большинству приложений в реальном мире. Компания, основанная Шоном Шеном и Беном Чжоу, решает критическую проблему в развитии ИИ: способность машин учиться на прошлом визуальном опыте и действовать на его основе.
Необходимость в визуальной памяти
В настоящее время ИИ преуспевает в цифровой сфере, но с трудом применяет полученный опыт к реальным сценариям. Это связано с тем, что большинство достижений в области ИИ отдают приоритет текстовой памяти, которую легче структурировать и индексировать, чем визуальные данные. Физический мир функционирует за счет зрения, и ИИ, работающий в этой области, требует способа сохранения и воспроизведения визуальной информации. Именно здесь вступает в действие Memories.ai.
Основатели осознали эту потребность, работая над умными очками Ray-Ban от Meta. Они заметили, что если пользователи не могут надежно воспроизводить записанные визуальные данные, полезность очков ограничена. Это побудило их покинуть Meta и основать Memories.ai в 2024 году, собрав на сегодняшний день 16 миллионов долларов посевного финансирования.
Партнерство с Nvidia
Memories.ai сотрудничает с Nvidia, используя такие инструменты, как Cosmos-Reason 2 (модель компьютерного зрения и языка) и Nvidia Metropolis (приложение для поиска видео), чтобы ускорить свою технологию визуальной памяти. Это партнерство подчеркивает растущий интерес отрасли к ИИ, который может «видеть» и запоминать. Решение объединить свою работу с инфраструктурой Nvidia указывает на убеждение, что будущее ИИ будет в значительной степени зависеть от высокопроизводительной визуальной обработки.
Сбор данных и разработка модели
Ключевой задачей при создании визуальной памяти является эффективное внедрение и индексирование видеоданных для хранения и воспроизведения. Memories.ai разработала свою собственную большую модель визуальной памяти (LVMM) в июле 2025 года, сравнимую с Google Gemini Embedding 2, но адаптированную для визуальной информации. Для обучения этой модели компания создала LUCI, запатентованное аппаратное устройство, которое носится сборщиками данных для записи учебных кадров. Решение о создании пользовательского оборудования демонстрирует ограничения существующих технологий записи видео в удовлетворении потребностей обучения ИИ.
Будущие перспективы
Memories.ai уже работает с крупными компаниями, производящими носимые устройства (личности которых остаются нераскрытыми), и заключила партнерство с Qualcomm для запуска своих моделей на процессорах Snapdragon. Компания по-прежнему сосредоточена на основной модели и инфраструктуре, а не на том, чтобы стать производителем оборудования.
«Мы больше сосредоточены на модели и инфраструктуре, потому что в конечном итоге мы думаем, что рынок носимых устройств и робототехники придет, но, вероятно, сейчас этого не произойдет», — говорит Шен.
Это предполагает долгосрочное видение, в котором визуальная память станет основой для более широких приложений ИИ в робототехнике и дополненной реальности. Подход компании заключается не в немедленных потребительских продуктах, а в создании основной технологии, которая будет питать следующее поколение интеллектуальных устройств.
Разработка ИИ-визуальной памяти находится на ранней стадии, но работа Memories.ai является критическим шагом к машинам, которые могут действительно «видеть» и учиться на физическом мире.





























