MemGPT

MemGPT

🚀 MemGPT MCP 服务器

MemGPT MCP 服务器是一个基于 TypeScript 的 MCP 服务器,可实现大语言模型(LLM)的内存系统。它提供了与不同 LLM 提供商进行聊天的工具,同时能有效保持对话历史,为用户带来更连贯、智能的交互体验。

🚀 快速开始

在使用 MemGPT MCP 服务器前,需完成依赖安装、服务器构建等操作。以下是详细步骤:

安装依赖

npm install

构建服务器

npm run build

带有自动重建功能的开发

npm run watch

✨ 主要特性

工具

  • chat:向当前 LLM 提供商发送消息。
    • 可接受消息参数。
    • 支持多个提供程序,包括 OpenAI、Anthropic、OpenRouter、Ollama。
  • get_memory:获取对话历史记录。
    • 有可选的 limit 参数,可指定要检索的记忆数量。
    • 使用 limit: null 可无限制地检索记忆。
    • 按时间顺序返回记忆,并附带时间戳。
  • clear_memory:清除对话历史记录,会删除所有存储的记忆。
  • use_provider:在不同的 LLM 提供商之间切换。
    • 支持 OpenAI、Anthropic、OpenRouter 和 Ollama。
    • 能保持提供程序选择的持久性。
  • use_model:切换到当前提供程序的不同模型。
    • 支持提供程序特定的模型,具体如下:
      • Anthropic Claude 模型
        • Claude 3 系列
          • claude-3-haiku:响应时间最快,适合客服支持和内容审核等任务。
          • claude-3-sonnet:性能平衡,适用于通用用途。
          • claude-3-opus:高级模型,适合复杂推理和高性能任务。
        • Claude 3.5 系列
          • claude-3.5-haiku:增强速度和成本效益。
          • claude-3.5-sonnet:优越性能,具备计算机交互能力。
      • OpenAI:支持 'gpt-4o'、'gpt-4o-mini'、'gpt-4-turbo'。
      • OpenRouter:支持任何提供程序/模型格式(例如,'openai/gpt-4'、'anthropic/claude-2')。
      • Ollama:支持任何本地可用的模型(例如,'llama2'、'codellama')。
    • 能保持模型选择的持久性。

📦 安装指南

与 Claude Desktop 使用时,请添加服务器配置:

  • MacOS:配置文件路径为 ~/Library/Application Support/Claude/claude_desktop_config.json
  • Windows:配置文件路径为 %APPDATA%/Claude/claude_desktop_config.json

以下是配置文件示例:

{
"mcpServers": {
"letta-memgpt": {
"command": "/path/to/memgpt-server/build/index.js",
"env": {
"OPENAI_API_KEY": "your-openai-key",
"ANTHROPIC_API_KEY": "your-anthropic-key",
"OPENROUTER_API_KEY": "your-openrouter-key"
}
}
}
}

环境变量

  • OPENAI_API_KEY:您的 OpenAI API 密钥。
  • ANTHROPIC_API_KEY:您的 Anthropic API 密钥。
  • OPENROUTER_API_KEY:您的 OpenRouter API 密钥。

调试

由于 MCP 服务器通过标准输入输出进行通信,调试可能具有挑战性。我们建议使用 MCP Inspector

npm run inspector

Inspector 将打开一个新窗口以帮助您调试。

📚 详细文档

最近更新

  • 对 Claude 3 系列模型的支持增强。
  • 无限记忆检索功能改进。
  • 0 关注
  • 0 收藏,8 浏览
  • system 提出于 2025-09-20 09:15

相似服务问题