Mem0 lanza OpenMemory MCP: memoria para agentes de IA

CometAPI
AnnaMay 15, 2025
Mem0 lanza OpenMemory MCP: memoria para agentes de IA

OpenMemory MCP se ha consolidado rápidamente como una herramienta fundamental para los desarrolladores de IA que buscan una gestión de memoria privada y fluida entre múltiples clientes asistentes. Anunciado el 13 de mayo de 2025 por Mem0, el servidor OpenMemory MCP introduce una capa de memoria local, compatible con el Protocolo de Contexto de Modelo (MCP), que permite compartir contexto de forma persistente entre herramientas como Cursor, Claude Desktop, Windsurf y otras.

A las 48 horas de su debut en Product Hunt el 15 de mayo, acumuló más de 200 votos positivos, lo que indica un gran interés de la comunidad en una infraestructura de memoria unificada y centrada en la privacidad. Los primeros artículos técnicos de Apidog y Dev.to elogiaron su búsqueda basada en vectores y su panel de control integrado, mientras que AIbase y TheUnwindAI destacaron su aplicabilidad práctica en flujos de trabajo de IA con múltiples herramientas. Los comentarios de los usuarios en Reddit destacan sus controles intuitivos en el panel de control y la promesa de una transferencia de contexto ininterrumpida, lo que consolida a OpenMemory MCP como una solución de última generación para la gestión de memoria privada de IA.

Lanzamiento y descripción general

El servidor MCP de OpenMemory se lanzó oficialmente el 13 de mayo de 2025, a través de una publicación de blog de Mem0 escrita por Taranjeet Singh, que lo posicionó como un "servidor de memoria privado, local primero" que se ejecuta completamente en la máquina del usuario.
Se adhiere al Protocolo de Contexto de Modelo (MCP) abierto y ofrece API estandarizadas.add_memories, search_memory, list_memories e delete_all_memories—para operaciones de memoria persistente.
Al eliminar las dependencias de la nube, garantiza la propiedad y la privacidad de los datos, lo que aborda una preocupación crítica en los flujos de trabajo de IA donde los costos de los tokens y la pérdida de contexto son desafíos persistentes.

Características principales

  • Persistencia local primero: Todos los recuerdos se almacenan localmente sin sincronización automática en la nube, lo que garantiza el control total del usuario sobre la residencia de los datos.
  • Intercambio de contexto entre clientes: Se pueden crear objetos de memoria (completos con temas, emociones y marcas de tiempo) en un cliente compatible con MCP y recuperarlos en otro sin necesidad de volver a solicitarlos.
  • Panel unificado: Una interfaz de usuario web integrada en http://localhost:3000 Permite a los usuarios explorar, agregar, eliminar y otorgar o revocar el acceso del cliente a las memorias en tiempo real.
  • Búsqueda respaldada por vectores: Al aprovechar Qdrant para la indexación semántica, OpenMemory hace coincidir las consultas por significado en lugar de palabras clave, lo que acelera la recuperación de memoria relevante.
  • Registros mejorados con metadatos: Cada entrada de memoria incluye metadatos enriquecidos (etiquetas de temas, contexto emocional y marcas de tiempo precisas) para un filtrado y una gestión detallados.

Arquitectura técnica

Bajo el capó, OpenMemory MCP combina:

  1. Microservicios Dockerizados: Contenedores separados para el servidor API, la base de datos vectorial y los componentes del servidor MCP, orquestados mediante make up).
  2. Protocolo de Contexto Modelo (MCP): Una interfaz REST+SSE a la que cualquier cliente MCP puede conectarse instalando el paquete de cliente MCP y apuntándolo a http://localhost:8765/mcp/<client>/sse/<username> .
  3. Base de datos de vectores (Qdrant): Almacena incrustaciones de texto de memoria para facilitar una búsqueda rápida de similitud semántica, minimizando el uso de tokens para búsquedas de contexto grandes.
  4. Eventos enviados por el servidor (SSE): Permite actualizaciones en tiempo real en el panel de control y disponibilidad de memoria inmediata en todos los clientes conectados.

Instalación y configuración

Clonar y construir:

git clone https://github.com/mem0ai/mem0.git cd openmemory make build make up

Configurar entorno:

Crear una .env archivar bajo api/ con OPENAI_API_KEY=your_CometAPI_key_here .

CometAPI proporciona una interfaz REST unificada que integra cientos de modelos de IA, incluida la familia ChatGPT, en un punto final consistente, con gestión de claves de API integrada, cuotas de uso y paneles de facturación. En lugar de tener que lidiar con múltiples URL y credenciales de proveedores, consulte  tutoriales.

Obtenga sus credenciales de CometAPI:

  • Inicia sesión en tuCometAPI .
  • Navegue a  Tokens de APIy haga clic Agregar token. Copia el token recién creado (por ejemplo, sk-abc...) y anote su URL base (se mostrará como https://api.cometapi.com).
  • Mantenga estos dos datos a mano para la configuración del cursor.

MCP de memoria abierta

Lanzamiento de Frontend:

cp ui/.env.example ui/.env make ui The dashboard becomes available at http://localhost:3000 .

Conectar clientes MCP:

Instale el paquete de cliente MCP y registre su cliente:

npx install-mcp i "http://localhost:8765/mcp/<client>/sse/$(whoami)" --client <client>

Ecosistema y soporte al cliente

OpenMemory MCP es compatible con cualquier herramienta que implemente MCP, incluidas:

  • Cursor AI
  • Escritorio de Claude
  • Windsurf
  • clina
  • Futuras plataformas habilitadas para MCP .

A medida que más asistentes de IA adopten MCP, el valor de una infraestructura de memoria compartida aumentará, lo que fomentará experiencias entre herramientas más enriquecedoras.

Casos de uso del mundo real

  • Agentes de investigación:Combine agentes de resumen y raspado de navegador en todas las herramientas; almacene los hallazgos en OpenMemory para tener una referencia consistente durante la generación de informes.
  • Tuberías de desarrollo:Preserve el contexto de depuración al cambiar entre editores de código y entornos REPL, lo que reduce el tiempo de configuración y la carga cognitiva.
  • Asistentes personales:Mantenga las preferencias del usuario y las consultas pasadas en las tareas diarias, lo que permite respuestas más personalizadas y contextualizadas.

Hoja de ruta futura

El equipo de Mem0 ha insinuado funciones de “Control de memoria total”, que permiten a los usuarios establecer políticas de expiración y permisos de acceso granulares por cliente.

Los desarrollos en curso incluyen arquitecturas de complementos para filtros de memoria personalizados y opciones de respaldo en la nube para flujos de trabajo híbridos; se compartirán detalles en el blog oficial a medida que maduren.

Con la rápida curva de adopción y el modelo de desarrollo de código abierto, OpenMemory MCP está preparado para convertirse en la capa de memoria de facto para la próxima generación de asistentes de IA.

Leer Más

500+ Modelos en Una API

Hasta 20% de Descuento