这是一个基于 TypeScript 的 MCP 服务器,为大语言模型(LLM)实现了一套内存系统,还能让你与不同的 LLM 提供商进行聊天。该服务器会维护对话历史记录,并且支持使用多种不同的 LLM 提供商。
MemGPT MCP 服务器为大语言模型提供了强大的内存系统和多提供商聊天功能。下面为你介绍如何快速开启使用之旅。
chat
:向当前 LLM 提供商发送消息。
get_memory
:获取对话历史记录。
limit
参数来指定要获取的记忆数量。limit: null
以无限制地检索所有记忆。clear_memory
:清除对话历史记录,删除所有存储的记忆。use_provider
:在不同的 LLM 提供商之间切换。
use_model
:切换当前提供商的模型。
claude - 3 - haiku
:响应速度最快,适合客服支持和内容审核等任务。claude - 3 - sonnet
:性能均衡,适用于通用用途。claude - 3 - opus
:高级模型,适合复杂推理和高性能任务。claude - 3.5 - haiku
:响应速度更快且更具成本效益。claude - 3.5 - sonnet
:性能更优,具备计算机交互能力。'gpt - 4o'
、'gpt - 4o - mini'
和 'gpt - 4 - turbo'
。'provider/model'
格式表示的模型(例如 'openai/gpt - 4'
、'anthropic/claude - 2'
)。'llama2'
、'codellama'
)。npm install
npm run build
npm run watch
要在 Claude Desktop 上使用,请将服务器配置添加到:
~/Library/Application Support/Claude/claude_desktop_config.json
%APPDATA%/Claude/claude_desktop_config.json
示例配置如下:
{
"servers": {
"your-server-name": {
"type": "memgpt",
"host": "localhost",
"port": 12345,
"apiKey": "your-api-key"
}
}
}
在运行服务器之前,需要设置以下环境变量:
OPENAI_API_KEY
- OpenAI API 密钥ANTHROPIC_API_KEY
- Anthropic API 密钥OLLAMA_SERVER_URL
(可选) - Ollama 服务器的 URL,默认为 http://localhost:11434
使用 MCP Inspector 工具可以帮助调试,因为它通过标准输入/输出进行通信。这对于监控和调整服务器行为非常有用。