拉格doll AI MCP 服务器是一个用于查询拉格doll AI 知识库的模型上下文协议(MCP)服务器,它提供了简单接口,可与多种大语言模型客户端应用无缝集成,助力用户高效查询知识库。
此 MCP 服务器提供了一个简单的接口,通过模型上下文协议查询拉格doll AI 的知识库。它支持与各种大语言模型客户端应用(包括 Cursor、Windsurf 和 Cline)无缝集成。
git clone
cd mcp-ragdoll-server
bun install
设置环境变量:
export RAGDOLL_API_KEY="your-ragdoll-api-key"
export RAGDOLL_KNOWLEDGE_BASE_ID="your-knowledge-base-id"
为了持久配置,将这些添加到您的 .bashrc
、.zshrc
文件中,或在项目根目录下创建一个 .env
文件。
启动服务器:
bun run index.ts
使用 NPX 的最简单方式:
npx -y ragdoll-mcp-server
要在 Cursor IDE 中安装 Ragdoll MCP 服务器:
mcp.json
的文件,内容如下:{
"mcpServers": {
"ragdoll-mcp-server": {
"command": "npx",
"args": ["-y", "ragdoll-mcp-server"],
"env": {
"RAGDOLL_API_KEY": "your-ragdoll-api-key",
"RAGDOLL_KNOWLEDGE_BASE_ID": "your-knowledge-base-id"
}
}
}
}
或者,您也可以本地运行服务器:
{
"mcpServers": {
"ragdoll-mcp-server": {
"command": "bun",
"args": ["run", "/path/to/mcp-ragdoll-server/index.ts"],
"env": {
"RAGDOLL_API_KEY": "your-ragdoll-api-key",
"RAGDOLL_KNOWLEDGE_BASE_ID": "your-knowledge-base-id"
}
}
}
}
要在 Windsurf IDE 中安装 Ragdoll MCP 服务器:
创建或编辑 mcp_config.json
文件,内容如下:
{
"mcpServers": {
"ragdoll-mcp-server": {
"command": "npx",
"args": ["-y", "ragdoll-mcp-server"],
"env": {
"RAGDOLL_API_KEY": "your-ragdoll-api-key",
"RAGDOLL_KNOWLEDGE_BASE_ID": "your-knowledge-base-id"
}
}
}
}
要在 Cline 中安装 Ragdoll MCP 服务器:
创建或编辑 cline_mcp_settings.json
文件,内容如下:
{
"mcpServers": {
"ragdoll-mcp-server": {
"command": "npx",
"args": ["-y", "ragdoll-mcp-server"],
"env": {
"RAGDOLL_API_KEY": "your-ragdoll-api-key",
"RAGDOLL_KNOWLEDGE_BASE_ID": "your-knowledge-base-id"
}
}
}
}
项目使用了 MCP SDK,如需了解更多信息,请参考 此处。
如有任何问题或反馈,请联系 microsoft-MCP@microsoft.com。