OpenMemory MCP telah muncul dengan pantas sebagai alat penting untuk pembangun AI yang mencari pengurusan memori peribadi yang lancar merentas berbilang pelanggan pembantu. Diumumkan pada 13 Mei 2025, oleh Mem0, OpenMemory MCP Server memperkenalkan lapisan memori pertama setempat yang mematuhi Model Context Protocol (MCP), yang membolehkan perkongsian konteks berterusan antara alatan seperti Cursor, Claude Desktop, Windsurf dan banyak lagi .
Dalam tempoh 48 jam selepas debut Product Huntnya pada 15 Mei, ia memperoleh lebih 200 undian positif, menandakan minat komuniti yang kuat dalam infrastruktur memori yang bersatu dan memfokuskan privasi. Penulisan teknikal awal daripada Apidog dan Dev.to telah memuji carian yang disokong vektor dan papan pemuka terbina dalam, manakala AIbase dan TheUnwindAI menyerlahkan kebolehgunaan dunia sebenar dalam aliran kerja AI berbilang alatan. Maklum balas pengguna pada Reddit menggariskan kawalan papan pemuka intuitifnya dan janji penyerahan konteks tanpa gangguan, mengukuhkan status OpenMemory MCP sebagai penyelesaian generasi seterusnya untuk pengurusan memori AI peribadi
Pelancaran dan Gambaran Keseluruhan
Pelayan MCP OpenMemory dilancarkan secara rasmi pada 13 Mei 2025, melalui catatan blog Mem0 yang dikarang oleh Taranjeet Singh, meletakkannya sebagai "pelayan memori tempatan pertama peribadi" yang dijalankan sepenuhnya pada mesin pengguna.
Ia mematuhi Protokol Konteks Model (MCP) terbuka, yang menawarkan API piawai—add_memories, search_memory, list_memories, dan delete_all_memories—untuk operasi ingatan yang berterusan.
Dengan menghapuskan kebergantungan awan, ia menjamin pemilikan data dan privasi, menangani kebimbangan kritikal dalam aliran kerja AI di mana kos token dan kehilangan konteks merupakan cabaran berterusan .
Ciri Teras
- Kegigihan Pertama Tempatan: Semua kenangan disimpan secara setempat tanpa penyegerakan awan automatik, memastikan kawalan pengguna penuh ke atas pemastautin data.
- Perkongsian Konteks Merentas Pelanggan: Objek memori—lengkap dengan topik, emosi dan cap masa—boleh dibuat dalam satu klien yang serasi dengan MCP dan diambil semula dalam yang lain tanpa meminta semula .
- Papan Pemuka Bersatu: UI web bersepadu di
http://localhost:3000membolehkan pengguna menyemak imbas, menambah, memadam dan memberikan atau membatalkan akses pelanggan kepada kenangan dalam masa nyata - Carian Disokong Vektor: Memanfaatkan Qdrant untuk pengindeksan semantik, OpenMemory memadankan pertanyaan mengikut makna dan bukannya kata kunci, mempercepatkan perolehan memori yang berkaitan.
- Rekod Metadata-Dipertingkat: Setiap entri memori termasuk metadata yang diperkaya—teg topik, konteks emosi dan cap masa yang tepat—untuk penapisan dan pengurusan yang terperinci.
Senibina Teknikal
Di bawah tudung, OpenMemory MCP menggabungkan:
- Perkhidmatan Mikro Dockerized: Bekas berasingan untuk pelayan API, pangkalan data vektor dan komponen pelayan MCP, diatur melalui
make up). - Protokol Konteks Model (MCP): Antara muka REST+SSE yang boleh disambungkan oleh mana-mana pelanggan MCP dengan memasang pakej klien MCP dan menghalakannya
http://localhost:8765/mcp/<client>/sse/<username>. - Pangkalan Data Vektor (Qdrant): Menyimpan pembenaman teks memori untuk memudahkan carian persamaan semantik yang pantas, meminimumkan penggunaan token untuk carian konteks yang besar.
- Acara Dihantar Pelayan (SSE): Mendayakan kemas kini masa nyata dalam papan pemuka dan ketersediaan memori segera merentas pelanggan yang disambungkan .
Pemasangan dan Persediaan
Klon dan Bina:
git clone https://github.com/mem0ai/mem0.git cd openmemory make build make up
Konfigurasikan Persekitaran:
Buat .env fail di bawah api/ bersama OPENAI_API_KEY=your_CometAPI_key_here .
CometAPI menyediakan antara muka REST bersatu yang mengagregatkan ratusan model AI—termasuk keluarga ChatGPT—di bawah titik akhir yang konsisten, dengan pengurusan kunci API terbina dalam, kuota penggunaan dan papan pemuka pengebilan. Daripada menyulap berbilang URL vendor dan bukti kelayakan. Sila rujuk tutorial.
Dapatkan Bukti Kelayakan CometAPI Anda:
- Masuk ke andaCometAPI papan pemuka.
- Navigasi ke Token APIdan klik Tambah Token. Salin token yang baru dibuat (cth
sk-abc...) dan perhatikan URL asas anda (ia akan ditunjukkan sebagaihttps://api.cometapi.com). - Simpan kedua-dua maklumat ini berguna untuk konfigurasi Kursor.

Lancarkan Frontend:
cp ui/.env.example ui/.env make ui The dashboard becomes available at http://localhost:3000 .
Sambungkan Klien MCP:
Pasang pakej klien MCP dan daftarkan pelanggan anda:
npx install-mcp i "http://localhost:8765/mcp/<client>/sse/$(whoami)" --client <client>
Ekosistem dan Sokongan Pelanggan
OpenMemory MCP serasi dengan mana-mana alat yang melaksanakan MCP, termasuk:
- Kursor AI
- Claude Desktop
- Luncur Angin
- Garis
- Platform yang didayakan MCP masa hadapan .
Memandangkan lebih ramai pembantu AI mengguna pakai MCP, nilai infrastruktur memori yang dikongsi akan bertambah, memupuk pengalaman silang alat yang lebih kaya.
Kes Penggunaan Dunia Sebenar
- Agen Penyelidikan: Gabungkan agen pengikisan dan ringkasan penyemak imbas merentas alatan; simpan penemuan dalam OpenMemory untuk rujukan yang konsisten semasa penjanaan laporan.
- Talian Paip Pembangunan: Kekalkan konteks penyahpepijatan apabila bertukar antara editor kod dan persekitaran REPL, mengurangkan masa persediaan dan beban kognitif.
- Pembantu Peribadi: Kekalkan pilihan pengguna dan pertanyaan lalu merentas tugasan harian, membolehkan respons yang lebih diperibadikan dan sedar dari segi konteks.
Peta Jalan Masa Depan
Pasukan Mem0 telah membayangkan ciri "Kawalan Memori Penuh", yang membolehkan pengguna menetapkan dasar tamat tempoh dan kebenaran akses berbutir bagi setiap pelanggan .
Pembangunan berterusan termasuk seni bina pemalam untuk penapis memori tersuai dan pilihan sandaran awan untuk aliran kerja hibrid; butiran akan dikongsi di blog rasmi apabila ia matang.
Dengan keluk penggunaan pantas dan model pembangunan sumber terbuka, OpenMemory MCP bersedia untuk menjadi lapisan memori de facto untuk pembantu AI generasi akan datang.
