Mem0 เปิดตัว OpenMemory MCP: หน่วยความจำสำหรับตัวแทน AI

CometAPI
AnnaMay 15, 2025
Mem0 เปิดตัว OpenMemory MCP: หน่วยความจำสำหรับตัวแทน AI

OpenMemory MCP กลายเป็นเครื่องมือสำคัญสำหรับนักพัฒนา AI ที่ต้องการการจัดการหน่วยความจำแบบส่วนตัวที่ราบรื่นบนไคลเอนต์ผู้ช่วยหลายตัว OpenMemory MCP Server ซึ่งประกาศเปิดตัวเมื่อวันที่ 13 พฤษภาคม 2025 โดย Mem0 นำเสนอเลเยอร์หน่วยความจำแบบโลคัลที่สอดคล้องกับ Model Context Protocol (MCP) ซึ่งช่วยให้สามารถแชร์บริบทอย่างต่อเนื่องระหว่างเครื่องมือต่างๆ เช่น Cursor, Claude Desktop, Windsurf และอื่นๆ

ภายใน 48 ชั่วโมงหลังจากเปิดตัว Product Hunt เมื่อวันที่ 15 พฤษภาคม ก็ได้รับการโหวตมากกว่า 200 ครั้ง ซึ่งแสดงให้เห็นถึงความสนใจของชุมชนที่มีต่อโครงสร้างพื้นฐานหน่วยความจำแบบรวมศูนย์ที่เน้นความเป็นส่วนตัว บทความทางเทคนิคเบื้องต้นจาก Apidog และ Dev.to ยกย่องการค้นหาแบบเวกเตอร์และแดชบอร์ดในตัว ขณะที่ AIbase และ TheUnwindAI เน้นย้ำถึงความสามารถในการนำไปใช้จริงในเวิร์กโฟลว์ AI แบบมัลติทูล คำติชมของผู้ใช้บน Reddit เน้นย้ำถึงการควบคุมแดชบอร์ดที่ใช้งานง่ายและคำมั่นสัญญาในการส่งต่อบริบทอย่างไม่หยุดชะงัก ช่วยยืนยันสถานะของ OpenMemory MCP ในฐานะโซลูชันรุ่นถัดไปสำหรับการจัดการหน่วยความจำ AI ส่วนตัว

การเปิดตัวและภาพรวม

OpenMemory MCP Server เปิดตัวอย่างเป็นทางการเมื่อวันที่ 13 พฤษภาคม 2025 ผ่านโพสต์บล็อก Mem0 ที่เขียนโดย Taranjeet Singh โดยวางตำแหน่งให้เป็น "เซิร์ฟเวอร์หน่วยความจำแบบส่วนตัวที่เน้นที่เครื่องเป็นหลัก" ที่ทำงานบนเครื่องของผู้ใช้เท่านั้น
ปฏิบัติตามโปรโตคอลบริบทแบบจำลอง (MCP) แบบเปิด โดยเสนอ API ที่ได้มาตรฐานadd_memories, search_memory, list_memoriesและ delete_all_memories—สำหรับการดำเนินการหน่วยความจำถาวร
การกำจัดการพึ่งพาระบบคลาวด์ช่วยรับประกันความเป็นเจ้าของข้อมูลและความเป็นส่วนตัว ซึ่งเป็นการแก้ไขข้อกังวลที่สำคัญในเวิร์กโฟลว์ AI ที่ต้นทุนโทเค็นและการสูญเสียบริบทเป็นความท้าทายที่เกิดขึ้นอย่างต่อเนื่อง

คุณสมบัติหลัก

  • ความคงอยู่เป็นอันดับแรกในท้องถิ่น: หน่วยความจำทั้งหมดจะถูกเก็บไว้ในเครื่องโดยไม่มีการซิงค์คลาวด์อัตโนมัติ ช่วยให้ผู้ใช้สามารถควบคุมการจัดเก็บข้อมูลได้เต็มรูปแบบ
  • การแบ่งปันบริบทระหว่างไคลเอนต์: วัตถุหน่วยความจำที่ครบถ้วนพร้อมด้วยหัวข้อ อารมณ์ และวันที่/เวลา สามารถสร้างได้ในไคลเอนต์ที่เข้ากันได้กับ MCP ตัวหนึ่ง และเรียกค้นในอีกไคลเอนต์หนึ่งได้โดยไม่ต้องแจ้งเตือนซ้ำ
  • แดชบอร์ดแบบรวม: UI เว็บแบบบูรณาการที่ http://localhost:3000 ช่วยให้ผู้ใช้สามารถเรียกดู เพิ่ม ลบ และอนุญาตหรือเพิกถอนสิทธิ์การเข้าถึงหน่วยความจำของไคลเอนต์ได้แบบเรียลไทม์
  • การค้นหาแบบเวกเตอร์: การใช้ Qdrant เพื่อสร้างดัชนีความหมาย ทำให้ OpenMemory จับคู่แบบสอบถามตามความหมายแทนคำสำคัญ ช่วยเร่งการดึงข้อมูลหน่วยความจำที่เกี่ยวข้อง
  • ข้อมูลเมตา‑บันทึกที่ปรับปรุง: รายการหน่วยความจำแต่ละรายการมีข้อมูลเมตาที่เสริมประสิทธิภาพ เช่น แท็กหัวข้อ บริบททางอารมณ์ และวันที่และเวลาที่แม่นยำ เพื่อการกรองและการจัดการที่ละเอียด

สถาปัตยกรรมทางเทคนิค

ภายใต้ประทุน OpenMemory MCP ประกอบไปด้วย:

  1. ไมโครเซอร์วิสแบบ Docker: คอนเทนเนอร์แยกต่างหากสำหรับเซิร์ฟเวอร์ API ฐานข้อมูลเวกเตอร์ และส่วนประกอบเซิร์ฟเวอร์ MCP ประสานงานผ่าน make up).
  2. โปรโตคอลบริบทโมเดล (MCP): อินเทอร์เฟซ REST+SSE ที่ไคลเอนต์ MCP ใดๆ สามารถเชื่อมต่อได้โดยการติดตั้งแพ็กเกจไคลเอนต์ MCP และชี้ไปที่ http://localhost:8765/mcp/<client>/sse/<username> .
  3. ฐานข้อมูลเวกเตอร์ (Qdrant): จัดเก็บการฝังข้อความหน่วยความจำเพื่ออำนวยความสะดวกในการค้นหาความคล้ายคลึงทางความหมายอย่างรวดเร็ว ช่วยลดการใช้โทเค็นสำหรับการค้นหาบริบทขนาดใหญ่
  4. เหตุการณ์ที่ส่งโดยเซิร์ฟเวอร์ (SSE): เปิดใช้งานการอัปเดตแบบเรียลไทม์ในแดชบอร์ดและความพร้อมใช้งานหน่วยความจำทันทีทั่วทั้งไคลเอนต์ที่เชื่อมต่อ

การติดตั้งและการตั้งค่า

โคลนและสร้าง:

git clone https://github.com/mem0ai/mem0.git cd openmemory make build make up

กำหนดค่าสภาพแวดล้อม:

สร้าง .env ไฟล์ภายใต้ api/ สีสดสวย OPENAI_API_KEY=your_CometAPI_key_here .

CometAPI มอบอินเทอร์เฟซ REST แบบรวมที่รวบรวมโมเดล AI หลายร้อยโมเดล รวมถึงกลุ่ม ChatGPT ภายใต้จุดสิ้นสุดที่สอดคล้องกัน พร้อมการจัดการคีย์ API ในตัว โควตาการใช้งาน และแดชบอร์ดการเรียกเก็บเงิน แทนที่จะต้องจัดการ URL และข้อมูลรับรองของผู้ขายหลายราย โปรดดู  เกี่ยวกับการสอน.

รับข้อมูลประจำตัว CometAPI ของคุณ:

  • เข้าสู่ระบบของคุณโคเมทเอพีไอ แผงควบคุม.
  • นำทางไปยัง โทเค็น APIและคลิก เพิ่มโทเค็น. คัดลอกโทเค็นที่เพิ่งสร้างใหม่ (เช่น sk-abc...) และจดบันทึก URL ฐานของคุณ (จะแสดงเป็น https://api.cometapi.com)
  • เก็บข้อมูลทั้งสองส่วนนี้ไว้เพื่อใช้ในการกำหนดค่าเคอร์เซอร์

โอเพ่นเมมโมรี่ MCP

เปิดตัว Frontend:

cp ui/.env.example ui/.env make ui The dashboard becomes available at http://localhost:3000 .

เชื่อมต่อไคลเอนต์ MCP:

ติดตั้งแพ็กเกจไคลเอนต์ MCP และลงทะเบียนไคลเอนต์ของคุณ:

npx install-mcp i "http://localhost:8765/mcp/<client>/sse/$(whoami)" --client <client>

ระบบนิเวศและการสนับสนุนลูกค้า

OpenMemory MCP สามารถทำงานร่วมกับเครื่องมือใดๆ ที่ใช้งาน MCP ได้ รวมถึง:

  • เคอร์เซอร์ AI
  • คลอด เดสก์ท็อป
  • วินเซิร์ฟ
  • ไคลน์
  • แพลตฟอร์มที่รองรับ MCP ในอนาคต .

เมื่อผู้ช่วย AI นำ MCP มาใช้มากขึ้น มูลค่าของโครงสร้างพื้นฐานหน่วยความจำที่ใช้ร่วมกันจะทวีคูณและส่งเสริมให้เกิดประสบการณ์ข้ามเครื่องมือที่หลากหลายมากยิ่งขึ้น

กรณีการใช้งานในโลกแห่งความเป็นจริง

  • ตัวแทนการวิจัย:รวมตัวแทนการขูดข้อมูลจากเบราว์เซอร์และการสรุปข้อมูลในเครื่องมือต่างๆ จัดเก็บผลการค้นพบใน OpenMemory เพื่อการอ้างอิงที่สอดคล้องกันในระหว่างการสร้างรายงาน
  • ท่อส่งการพัฒนา:รักษาบริบทการดีบักเมื่อสลับระหว่างตัวแก้ไขโค้ดและสภาพแวดล้อม REPL ลดเวลาในการตั้งค่าและภาระทางปัญญา
  • ผู้ช่วยส่วนตัว:รักษาค่ากำหนดของผู้ใช้และการค้นหาในอดีตในงานประจำวัน ช่วยให้สามารถตอบสนองได้เฉพาะบุคคลและตามบริบทมากขึ้น

แผนงานในอนาคต

ทีมงาน Mem0 ได้แนะนำคุณลักษณะ "การควบคุมหน่วยความจำแบบเต็ม" ซึ่งช่วยให้ผู้ใช้สามารถกำหนดนโยบายการหมดอายุและสิทธิ์การเข้าถึงแบบละเอียดต่อไคลเอนต์ได้

การพัฒนาอย่างต่อเนื่องได้แก่สถาปัตยกรรมปลั๊กอินสำหรับตัวกรองหน่วยความจำแบบกำหนดเอง และตัวเลือกการสำรองข้อมูลบนคลาวด์สำหรับเวิร์กโฟลว์ไฮบริด รายละเอียดต่างๆ จะมีการแชร์ในบล็อกอย่างเป็นทางการเมื่อมีรายละเอียดครบถ้วน

ด้วยเส้นโค้งการนำไปใช้ที่รวดเร็วและรูปแบบการพัฒนาโอเพ่นซอร์ส OpenMemory MCP จึงพร้อมที่จะกลายมาเป็นเลเยอร์หน่วยความจำโดยพฤตินัยสำหรับผู้ช่วย AI รุ่นถัดไป

อ่านเพิ่มเติม

500+ โมเดลใน API เดียว

ลดราคาสูงสุด 20%