Mem0 rilascia OpenMemory MCP: memoria per agenti di intelligenza artificiale

CometAPI
AnnaMay 15, 2025
Mem0 rilascia OpenMemory MCP: memoria per agenti di intelligenza artificiale

OpenMemory MCP si è rapidamente affermato come uno strumento fondamentale per gli sviluppatori di intelligenza artificiale che desiderano una gestione della memoria privata e senza interruzioni su più client di assistenza. Annunciato il 13 maggio 2025 da Mem0, OpenMemory MCP Server introduce un livello di memoria local-first conforme al Model Context Protocol (MCP), consentendo la condivisione persistente del contesto tra strumenti come Cursor, Claude Desktop, Windsurf e altri.

Entro 48 ore dal suo debutto su Product Hunt, il 15 maggio, ha raccolto oltre 200 voti positivi, a dimostrazione del forte interesse della comunità per un'infrastruttura di memoria unificata e incentrata sulla privacy. I primi articoli tecnici di Apidog e Dev.to ne hanno elogiato la ricerca basata su vettori e la dashboard integrata, mentre AIbase e TheUnwindAI ne hanno evidenziato l'applicabilità pratica nei flussi di lavoro di intelligenza artificiale multi-strumento. Il feedback degli utenti su Reddit sottolinea i suoi controlli intuitivi della dashboard e la promessa di un trasferimento di contesto ininterrotto, consolidando lo status di OpenMemory MCP come soluzione di nuova generazione per la gestione della memoria AI privata.

Lancio e panoramica

Il server OpenMemory MCP è stato lanciato ufficialmente il 13 maggio 2025 tramite un post sul blog Mem0 scritto da Taranjeet Singh, che lo descrive come un "server di memoria privato, local-first" che viene eseguito interamente sul computer dell'utente.
Aderisce al protocollo aperto Model Context Protocol (MCP), offrendo API standardizzate:add_memories, search_memory, list_memoriese delete_all_memories—per operazioni di memoria persistente.
Eliminando le dipendenze dal cloud, garantisce la proprietà e la privacy dei dati, affrontando un problema critico nei flussi di lavoro dell'intelligenza artificiale in cui i costi dei token e la perdita di contesto rappresentano sfide persistenti.

Caratteristiche principali

  • Persistenza locale prima: Tutti i ricordi vengono archiviati localmente senza sincronizzazione automatica con il cloud, garantendo all'utente il pieno controllo sulla residenza dei dati.
  • Condivisione del contesto tra client: Gli oggetti di memoria, completi di argomenti, emozioni e timestamp, possono essere creati in un client compatibile con MCP e recuperati in un altro senza dover ripetere la procedura.
  • Dashboard unificato: Un'interfaccia utente web integrata a http://localhost:3000 consente agli utenti di esplorare, aggiungere, eliminare e concedere o revocare l'accesso client ai ricordi in tempo reale
  • Ricerca basata su vettori: Sfruttando Qdrant per l'indicizzazione semantica, OpenMemory abbina le query in base al significato anziché alle parole chiave, accelerando il recupero della memoria pertinente.
  • Record arricchiti con metadati: Ogni voce di memoria include metadati arricchiti (tag di argomenti, contesto emotivo e timestamp precisi) per una gestione e un filtraggio dettagliati.

Architettura tecnica

Sotto il cofano, OpenMemory MCP combina:

  1. Microservizi Dockerizzati: Contenitori separati per il server API, il database vettoriale e i componenti del server MCP, orchestrati tramite make up).
  2. Protocollo di contesto del modello (MCP): Un'interfaccia REST+SSE a cui qualsiasi client MCP può agganciarsi installando il pacchetto client MCP e puntandolo a http://localhost:8765/mcp/<client>/sse/<username> .
  3. Database vettoriale (Qdrant): Memorizza gli incorporamenti di testo di memoria per facilitare una ricerca rapida di similarità semantica, riducendo al minimo l'utilizzo di token per ricerche di contesto di grandi dimensioni.
  4. Eventi inviati dal server (SSE): Consente aggiornamenti in tempo reale nella dashboard e disponibilità immediata della memoria tra i client connessi.

Installazione e configurazione

Clona e costruisci:

git clone https://github.com/mem0ai/mem0.git cd openmemory make build make up

Configura ambiente:

Creare un .env file sotto api/ con OPENAI_API_KEY=your_CometAPI_key_here .

CometAPI fornisce un'interfaccia REST unificata che aggrega centinaia di modelli di intelligenza artificiale, inclusa la famiglia ChatGPT, in un endpoint coerente, con gestione delle chiavi API integrata, quote di utilizzo e dashboard di fatturazione. Invece di dover gestire URL e credenziali di più fornitori, si prega di fare riferimento a  lezione.

Ottieni le tue credenziali CometAPI:

  • Accedi al tuoCometaAPI cruscotto.
  • Accedere a Token APIe fare clic su Aggiungi tokenCopia il token appena creato (ad esempio sk-abc...) e annota il tuo URL di base (verrà mostrato come https://api.cometapi.com).
  • Tenete a portata di mano queste due informazioni per la configurazione del cursore.

OpenMemory MCP

Avvia Frontend:

cp ui/.env.example ui/.env make ui The dashboard becomes available at http://localhost:3000 .

Connetti i client MCP:

Installa il pacchetto client MCP e registra il tuo client:

npx install-mcp i "http://localhost:8765/mcp/<client>/sse/$(whoami)" --client <client>

Ecosistema e supporto clienti

OpenMemory MCP è compatibile con qualsiasi strumento che implementi MCP, tra cui:

  • Cursore AI
  • Claude Desktop
  • Windsurf
  • Cline
  • Piattaforme future abilitate MCP .

Con l'adozione di MCP da parte di un numero sempre maggiore di assistenti AI, il valore di un'infrastruttura di memoria condivisa aumenterà, favorendo esperienze multi-strumento più ricche.

Casi d'uso nel mondo reale

  • Agenti di ricerca: Combina gli agenti di browser scraping e di riepilogo tra gli strumenti; memorizza i risultati in OpenMemory per un riferimento coerente durante la generazione di report.
  • Pipeline di sviluppo: Mantieni il contesto di debug quando passi da editor di codice ad ambienti REPL, riducendo i tempi di configurazione e il carico cognitivo.
  • Assistenti personali: Mantieni le preferenze degli utenti e le query passate nelle attività quotidiane, consentendo risposte più personalizzate e contestualizzate.

Roadmap futura

Il team di Mem0 ha accennato alle funzionalità di "controllo completo della memoria", che consentono agli utenti di impostare criteri di scadenza e autorizzazioni di accesso granulari per ogni client.

Gli sviluppi in corso includono architetture di plugin per filtri di memoria personalizzati e opzioni di backup su cloud per flussi di lavoro ibridi; i dettagli saranno condivisi sul blog ufficiale man mano che saranno disponibili.

Grazie alla rapida curva di adozione e al modello di sviluppo open source, OpenMemory MCP è destinato a diventare di fatto il livello di memoria per la prossima generazione di assistenti AI.

Leggi di più

500+ Modelli in Una API

Fino al 20% di sconto