Memgpt MCP Server

Memgpt MCP Server

🚀 MemGPT MCP 服务器

这是一个基于 TypeScript 的 MCP 服务器,为大语言模型(LLM)实现了一套内存系统,还能让你与不同的 LLM 提供商进行聊天。该服务器会维护对话历史记录,并且支持使用多种不同的 LLM 提供商。

🚀 快速开始

MemGPT MCP 服务器为大语言模型提供了强大的内存系统和多提供商聊天功能。下面为你介绍如何快速开启使用之旅。

✨ 主要特性

工具

  • chat:向当前 LLM 提供商发送消息。
    • 接收一个消息参数。
    • 支持多个提供商(OpenAI、Anthropic、OpenRouter、Ollama)。
  • get_memory:获取对话历史记录。
    • 可选的 limit 参数来指定要获取的记忆数量。
    • 使用 limit: null 以无限制地检索所有记忆。
    • 按时间顺序返回记忆,附带时间戳。
  • clear_memory:清除对话历史记录,删除所有存储的记忆。
  • use_provider:在不同的 LLM 提供商之间切换。
    • 支持 OpenAI、Anthropic、OpenRouter 和 Ollama。
    • 持久化提供商选择。
  • use_model:切换当前提供商的模型。
    • 支持提供商特定的模型:
      • Anthropic Claude 模型系列
        • Claude 3 系列
          • claude - 3 - haiku:响应速度最快,适合客服支持和内容审核等任务。
          • claude - 3 - sonnet:性能均衡,适用于通用用途。
          • claude - 3 - opus:高级模型,适合复杂推理和高性能任务。
        • Claude 3.5 系列
          • claude - 3.5 - haiku:响应速度更快且更具成本效益。
          • claude - 3.5 - sonnet:性能更优,具备计算机交互能力。
      • OpenAI:支持的模型包括 'gpt - 4o''gpt - 4o - mini''gpt - 4 - turbo'
      • OpenRouter:支持任何以 'provider/model' 格式表示的模型(例如 'openai/gpt - 4''anthropic/claude - 2')。
      • Ollama:支持任何本地可用的模型(例如 'llama2''codellama')。
    • 持久化模型选择。

📦 安装指南

开发环境安装

安装依赖项

npm install

构建服务器

npm run build

带有自动重建功能的开发

npm run watch

在 Claude Desktop 上使用

要在 Claude Desktop 上使用,请将服务器配置添加到:

  • MacOS:~/Library/Application Support/Claude/claude_desktop_config.json
  • Windows:%APPDATA%/Claude/claude_desktop_config.json

示例配置如下:

{
"servers": {
"your-server-name": {
"type": "memgpt",
"host": "localhost",
"port": 12345,
"apiKey": "your-api-key"
}
}
}

🔧 技术细节

环境变量

在运行服务器之前,需要设置以下环境变量:

  • OPENAI_API_KEY - OpenAI API 密钥
  • ANTHROPIC_API_KEY - Anthropic API 密钥
  • OLLAMA_SERVER_URL(可选) - Ollama 服务器的 URL,默认为 http://localhost:11434

调试

使用 MCP Inspector 工具可以帮助调试,因为它通过标准输入/输出进行通信。这对于监控和调整服务器行为非常有用。

📚 详细文档

最近更新

  • 增加了对 Claude 3 和 3.5 系列模型的支持。
  • 优化了记忆获取功能的灵活性和实用性。
  • 0 关注
  • 0 收藏,8 浏览
  • system 提出于 2025-09-20 03:30

相似服务问题