Mem0 udgiver OpenMemory MCP: Hukommelse til AI-agenter

CometAPI
AnnaMay 15, 2025
Mem0 udgiver OpenMemory MCP: Hukommelse til AI-agenter

OpenMemory MCP er hurtigt blevet et centralt værktøj for AI-udviklere, der søger problemfri, privat hukommelsesstyring på tværs af flere assistentklienter. OpenMemory MCP Server, der blev annonceret den 13. maj 2025 af Mem0, introducerer et lokalt hukommelseslag, der er kompatibelt med Model Context Protocol (MCP), hvilket muliggør vedvarende kontekstdeling mellem værktøjer som Cursor, Claude Desktop, Windsurf og flere.

Inden for 48 timer efter sin Product Hunt-debut den 15. maj havde den samlet over 200 positive stemmer, hvilket signalerede en stærk interesse i lokalsamfundet for en samlet, privatlivsfokuseret hukommelsesinfrastruktur. Tidlige tekniske rapporter fra Apidog og Dev.to har rost dens vektorbaserede søgning og indbyggede dashboard, mens AIbase og TheUnwindAI fremhævede dens anvendelighed i den virkelige verden i AI-arbejdsgange med flere værktøjer. Brugerfeedback på Reddit understreger dens intuitive dashboardkontroller og løftet om uafbrudt kontekstoverdragelse, hvilket cementerer OpenMemory MCPs status som en næste generations løsning til privat AI-hukommelsesstyring.

Lancering og oversigt

OpenMemory MCP Server blev officielt lanceret den 13. maj 2025 via et Mem0-blogindlæg forfattet af Taranjeet Singh, der positionerede den som en "privat, lokal-først hukommelsesserver", der kører udelukkende på brugerens maskine.
Den overholder den åbne Model Context Protocol (MCP) og tilbyder standardiserede API'er—add_memories, search_memory, list_memoriesog delete_all_memories—til vedvarende hukommelsesoperationer.
Ved at eliminere cloud-afhængigheder garanteres dataejerskab og privatliv, hvilket adresserer et kritisk problem i AI-arbejdsgange, hvor tokenomkostninger og konteksttab er vedvarende udfordringer.

Kernefunktioner

  • Lokal-første persistens: Alle hukommelser gemmes lokalt uden automatisk cloud-synkronisering, hvilket sikrer fuld brugerkontrol over dataopbevaring.
  • Kontekstdeling på tværs af klienter: Hukommelsesobjekter – komplet med emner, følelser og tidsstempler – kan oprettes i én MCP-kompatibel klient og hentes i en anden uden at skulle spørge igen.
  • Unified Dashboard: En integreret web-UI på http://localhost:3000 giver brugerne mulighed for at gennemse, tilføje, slette og give eller tilbagekalde klientadgang til hukommelser i realtid
  • Vektorbaseret søgning: Ved at udnytte Qdrant til semantisk indeksering matcher OpenMemory forespørgsler efter betydning i stedet for nøgleord, hvilket accelererer hentning af relevant hukommelse.
  • Metadata-forbedrede poster: Hver hukommelsespost indeholder berigede metadata – emnetags, følelsesmæssig kontekst og præcise tidsstempler – til finmasket filtrering og styring.

Teknisk arkitektur

Under motorhjelmen kombinerer OpenMemory MCP:

  1. Dockeriserede mikrotjenester: Separate containere til API-serveren, vektordatabasen og MCP-serverkomponenterne, orkestreret via make up).
  2. Modelkontekstprotokol (MCP): En REST+SSE-grænseflade, som enhver MCP-klient kan oprette forbindelse til ved at installere MCP-klientpakken og pege den på http://localhost:8765/mcp/<client>/sse/<username> .
  3. Vektordatabase (kvadrant): Gemmer indlejringer af hukommelsestekst for at muliggøre hurtig, semantisk lighedssøgning og minimere tokenbrug til store kontekstopslag.
  4. Server-Sendte Hændelser (SSE): Muliggør realtidsopdateringer i dashboardet og øjeblikkelig hukommelsestilgængelighed på tværs af tilsluttede klienter.

Installation og opsætning

Klon og byg:

git clone https://github.com/mem0ai/mem0.git cd openmemory make build make up

Konfigurer miljø:

Opret en .env fil under api/ med OPENAI_API_KEY=your_CometAPI_key_here .

CometAPI leverer en samlet REST-grænseflade, der samler hundredvis af AI-modeller – inklusive ChatGPT-familien – under et ensartet slutpunkt med indbygget API-nøglestyring, brugskvoter og faktureringsdashboards. I stedet for at jonglere med flere leverandør-URL'er og legitimationsoplysninger. Se venligst  tutorial.

Få dine CometAPI-legitimationsoplysninger:

  • Log ind på dinCometAPI instrumentbræt.
  • Naviger til API-tokensog klik Tilføj tokenKopiér det nyoprettede token (f.eks. sk-abc...) og noter din basis-URL (den vil blive vist som https://api.cometapi.com).
  • Hav disse to oplysninger klar til konfigurationen af ​​markøren.

OpenMemory MCP

Start frontend:

cp ui/.env.example ui/.env make ui The dashboard becomes available at http://localhost:3000 .

Tilslut MCP-klienter:

Installer MCP-klientpakken og registrer din klient:

npx install-mcp i "http://localhost:8765/mcp/<client>/sse/$(whoami)" --client <client>

Økosystem og klientsupport

OpenMemory MCP er kompatibel med ethvert værktøj, der implementerer MCP, herunder:

  • Cursor AI
  • Claude Desktop
  • Windsurfing
  • Cline
  • Fremtidige MCP-aktiverede platforme .

Efterhånden som flere AI-assistenter anvender MCP, vil værdien af ​​en delt hukommelsesinfrastruktur forøges, hvilket fremmer rigere oplevelser på tværs af værktøjer.

Brugsscenarier i den virkelige verden

  • ForskningsagenterKombinér browser-scraping og opsummeringsagenter på tværs af værktøjer; gem resultater i OpenMemory for ensartet reference under rapportgenerering.
  • UdviklingsrørledningerBevar fejlfindingskontekst, når der skiftes mellem kodeeditorer og REPL-miljøer, hvilket reducerer opsætningstid og kognitiv belastning.
  • Personlige assistenterVedligehold brugerpræferencer og tidligere forespørgsler på tværs af daglige opgaver, hvilket muliggør mere personlige og kontekstbevidste svar.

Fremtidig køreplan

Mem0-teamet har antydet funktioner til "Fuld hukommelseskontrol", der giver brugerne mulighed for at indstille udløbspolitikker og detaljerede adgangstilladelser pr. klient.

Løbende udviklinger omfatter plugin-arkitekturer til brugerdefinerede hukommelsesfiltre og cloud-backup-muligheder til hybride arbejdsgange; detaljer vil blive delt på den officielle blog, efterhånden som de modnes.

Med den hurtige adoptionskurve og open source-udviklingsmodellen er OpenMemory MCP klar til at blive det faktiske hukommelseslag for den næste generation af AI-assistenter.

Læs mere

500+ modeller i én API

Op til 20% rabat