MemGPT MCP 服务器是一个基于 TypeScript 的 MCP 服务器,可实现大语言模型(LLM)的内存系统。它提供了与不同 LLM 提供商进行聊天的工具,同时能有效保持对话历史,为用户带来更连贯、智能的交互体验。
在使用 MemGPT MCP 服务器前,需完成依赖安装、服务器构建等操作。以下是详细步骤:
npm install
npm run build
npm run watch
chat
:向当前 LLM 提供商发送消息。
get_memory
:获取对话历史记录。
limit
参数,可指定要检索的记忆数量。limit: null
可无限制地检索记忆。clear_memory
:清除对话历史记录,会删除所有存储的记忆。use_provider
:在不同的 LLM 提供商之间切换。
use_model
:切换到当前提供程序的不同模型。
claude-3-haiku
:响应时间最快,适合客服支持和内容审核等任务。claude-3-sonnet
:性能平衡,适用于通用用途。claude-3-opus
:高级模型,适合复杂推理和高性能任务。claude-3.5-haiku
:增强速度和成本效益。claude-3.5-sonnet
:优越性能,具备计算机交互能力。与 Claude Desktop 使用时,请添加服务器配置:
~/Library/Application Support/Claude/claude_desktop_config.json
。%APPDATA%/Claude/claude_desktop_config.json
。以下是配置文件示例:
{
"mcpServers": {
"letta-memgpt": {
"command": "/path/to/memgpt-server/build/index.js",
"env": {
"OPENAI_API_KEY": "your-openai-key",
"ANTHROPIC_API_KEY": "your-anthropic-key",
"OPENROUTER_API_KEY": "your-openrouter-key"
}
}
}
}
OPENAI_API_KEY
:您的 OpenAI API 密钥。ANTHROPIC_API_KEY
:您的 Anthropic API 密钥。OPENROUTER_API_KEY
:您的 OpenRouter API 密钥。由于 MCP 服务器通过标准输入输出进行通信,调试可能具有挑战性。我们建议使用 MCP Inspector:
npm run inspector
Inspector 将打开一个新窗口以帮助您调试。