Mem0 wydaje OpenMemory MCP: pamięć dla agentów AI

CometAPI
AnnaMay 15, 2025
Mem0 wydaje OpenMemory MCP: pamięć dla agentów AI

OpenMemory MCP szybko stał się kluczowym narzędziem dla programistów AI poszukujących płynnego, prywatnego zarządzania pamięcią w wielu klientach asystentów. Zapowiedziany 13 maja 2025 r. przez Mem0 serwer OpenMemory MCP wprowadza warstwę pamięci lokalnej zgodną z protokołem Model Context Protocol (MCP), umożliwiając trwałe współdzielenie kontekstu między narzędziami takimi jak Cursor, Claude Desktop, Windsurf i innymi.

W ciągu 48 godzin od debiutu Product Hunt 15 maja zebrał ponad 200 głosów, co świadczy o silnym zainteresowaniu społeczności ujednoliconą infrastrukturą pamięci skoncentrowaną na prywatności. Wczesne opisy techniczne Apidog i Dev.to chwaliły jego wyszukiwanie oparte na wektorach i wbudowany pulpit nawigacyjny, podczas gdy AIbase i TheUnwindAI podkreślały jego praktyczną przydatność w wielonarzędziowych przepływach pracy AI. Opinie użytkowników na Reddicie podkreślają intuicyjne sterowanie pulpitem nawigacyjnym i obietnicę nieprzerwanego przekazywania kontekstu, co umacnia status OpenMemory MCP jako rozwiązania nowej generacji do zarządzania prywatną pamięcią AI.

Wprowadzenie i przegląd

Serwer OpenMemory MCP został oficjalnie uruchomiony 13 maja 2025 r. za pośrednictwem wpisu na blogu Mem0 autorstwa Taranjeeta Singha, pozycjonującego go jako „prywatny, lokalny serwer pamięci”, który działa w całości na komputerze użytkownika.
Jest zgodny z otwartym protokołem Model Context Protocol (MCP) i oferuje standardowe interfejsy API —add_memories, search_memory, list_memories, delete_all_memories—do operacji na pamięci trwałej.
Eliminując zależność od chmury, gwarantuje własność danych i prywatność, rozwiązując kluczowy problem w procesach pracy związanych ze sztuczną inteligencją, w których koszty tokenów i utrata kontekstu stanowią stałe wyzwania.

Podstawowe cechy

  • Trwałość lokalna: Wszystkie wspomnienia są przechowywane lokalnie, bez automatycznej synchronizacji z chmurą, co zapewnia użytkownikowi pełną kontrolę nad miejscem przechowywania danych.
  • Współdzielenie kontekstu między klientami: Obiekty pamięci — wraz z tematami, emocjami i znacznikami czasu — można tworzyć w jednym kliencie zgodnym z MCP i pobierać w innym bez ponownego wyświetlania monitu.
  • Ujednolicony pulpit nawigacyjny: Zintegrowany interfejs użytkownika w sieci http://localhost:3000 umożliwia użytkownikom przeglądanie, dodawanie, usuwanie oraz udzielanie lub cofanie dostępu klienta do pamięci w czasie rzeczywistym
  • Wyszukiwanie oparte na wektorach: Wykorzystując Qdrant do indeksowania semantycznego, OpenMemory dopasowuje zapytania według ich znaczenia, a nie słów kluczowych, przyspieszając tym samym wyszukiwanie odpowiednich informacji w pamięci.
  • Rekordy wzbogacone o metadane: Każdy wpis we wspomnieniach zawiera wzbogacone metadane — tagi tematyczne, kontekst emocjonalny i dokładne znaczniki czasu — umożliwiające szczegółowe filtrowanie i zarządzanie.

Architektura techniczna

Pod maską OpenMemory MCP łączy:

  1. Mikrousługi z Dockerem: Oddzielne kontenery dla serwera API, bazy danych wektorowej i komponentów serwera MCP, koordynowane za pośrednictwem make up).
  2. Protokół kontekstu modelu (MCP): Interfejs REST+SSE, do którego może podłączyć się dowolny klient MCP, instalując pakiet klienta MCP i kierując go na http://localhost:8765/mcp/<client>/sse/<username> .
  3. Baza danych wektorowych (Qdrant): Przechowuje osadzenia tekstu pamięci, aby ułatwić szybkie wyszukiwanie podobieństw semantycznych, minimalizując użycie tokenów w przypadku wyszukiwań w obszernym kontekście.
  4. Wydarzenia wysyłane przez serwer (SSE): Umożliwia aktualizacje w czasie rzeczywistym na pulpicie nawigacyjnym i natychmiastową dostępność pamięci dla podłączonych klientów.

Instalacja i konfiguracja

Klonowanie i kompilacja:

git clone https://github.com/mem0ai/mem0.git cd openmemory make build make up

Konfiguruj środowisko:

Tworzenie .env plik w ramach api/ w OPENAI_API_KEY=your_CometAPI_key_here .

CometAPI zapewnia ujednolicony interfejs REST, który agreguje setki modeli AI — w tym rodzinę ChatGPT — w ramach spójnego punktu końcowego, z wbudowanym zarządzaniem kluczami API, limitami wykorzystania i panelami rozliczeniowymi. Zamiast żonglować wieloma adresami URL dostawców i poświadczeniami. Zapoznaj się z  Tutorial.

Uzyskaj swoje dane uwierzytelniające CometAPI:

  • Zaloguj się do swojego kontaInterfejs API Comet deska rozdzielcza.
  • Nawigować do Tokeny APIi kliknij Dodaj token. Skopiuj nowo utworzony token (np. sk-abc...) i zanotuj swój adres URL bazowy (będzie wyświetlany jako https://api.cometapi.com).
  • Zachowaj te dwie informacje pod ręką, aby móc skonfigurować kursor.

MCP OpenMemory

Uruchom Frontend:

cp ui/.env.example ui/.env make ui The dashboard becomes available at http://localhost:3000 .

Połącz klientów MCP:

Zainstaluj pakiet klienta MCP i zarejestruj swojego klienta:

npx install-mcp i "http://localhost:8765/mcp/<client>/sse/$(whoami)" --client <client>

Ekosystem i wsparcie klienta

OpenMemory MCP jest kompatybilny z dowolnym narzędziem implementującym MCP, w tym:

  • Kursor AI
  • Claude Desktop
  • windsurfing
  • Cline
  • Przyszłe platformy obsługujące MCP .

W miarę jak coraz więcej asystentów AI będzie stosować protokół MCP, wartość infrastruktury pamięci współdzielonej będzie wzrastać, co przełoży się na bogatsze doświadczenia między narzędziami.

Przykłady zastosowań w świecie rzeczywistym

  • Agenci badawczy:Połącz agentów scrapowania przeglądarki i podsumowania w różnych narzędziach; przechowuj wyniki w OpenMemory, aby zapewnić spójny dostęp do nich podczas generowania raportów.
  • Rurociągi rozwoju:Zachowaj kontekst debugowania podczas przełączania się między edytorami kodu i środowiskami REPL, co skraca czas konfiguracji i obciążenie poznawcze.
  • Osobiści asystenci: Zachowuje preferencje użytkownika i poprzednie zapytania podczas wykonywania codziennych zadań, umożliwiając bardziej spersonalizowane i kontekstowe odpowiedzi.

Plan na przyszłość

Zespół Mem0 zasugerował funkcje „pełnej kontroli pamięci”, które pozwolą użytkownikom na ustawienie zasad wygasania i szczegółowych uprawnień dostępu dla każdego klienta.

Trwające prace rozwojowe obejmują architekturę wtyczek do niestandardowych filtrów pamięci i opcje tworzenia kopii zapasowych w chmurze dla hybrydowych przepływów pracy; szczegóły będą udostępniane na oficjalnym blogu w miarę ich rozwoju.

Dzięki szybkiemu procesowi adopcji i modelowi rozwoju opartemu na otwartym kodzie źródłowym, OpenMemory MCP jest gotowy stać się faktyczną warstwą pamięci dla nowej generacji asystentów AI.

Czytaj więcej

500+ modeli w jednym API

Do 20% zniżki