RAG 文档 MCP 服务器是一个 MCP 服务器实现,提供通过向量搜索检索和处理文档的工具,能让 AI 助手借助相关文档上下文增强其响应内容。
要确保已经安装以下工具:
git clone https://github.com/your-repository.git
cd mcp-ragdocs
npm install
node index.js
默认情况下,服务器将在 http://localhost:3030
上运行。
此 MCP 服务器具备以下功能:
使用以下 docker-compose.yml
文件启动服务:
version: '3'
services:
mcp-ragdocs:
build: .
ports:
- "3030:3030"
environment:
- EMBEDDING_PROVIDER=ollama
- OPENAI_API_KEY=your-api-key-here
运行命令:
docker-compose up --build
访问 http://localhost:3030
可使用默认的 Web 界面进行文档检索和管理。
在 .env
文件中设置以下环境变量:
EMBEDDING_PROVIDER=ollama # 可选值:ollama 或 openai
OPENAI_API_KEY=your-api-key-here # 必填(如果使用 OpenAI)
QDRANT_URL=http://localhost:6333 # 可选,默认为 http://localhost:6333
在 config.json
文件中设置以下内容:
{
"EMBEDDING_PROVIDER": "ollama",
"OPENAI_API_KEY": "your-api-key-here",
"QDRANT_URL": "http://localhost:6333"
}
系统默认使用 Ollama 作为嵌入提供程序。为了最佳可靠性:
{
"EMBEDDING_MODEL": "nomic-embed-text", // 可选
"FALLBACK_PROVIDER": "openai",
"FALLBACK_MODEL": "text-embedding-3-small",
"OPENAI_API_KEY": "your-api-key-here"
}
此配置确保:
注意:系统将根据提供程序自动使用适当的向量维度:
文档中未提及相关信息,故跳过该章节。
文档中未提供具体的技术实现细节(内容未超过 50 字),故跳过该章节。
该项目是 qpd-v/mcp-ragdocs 的一个分支,最初由 qpd-v 开发。原始项目提供了此实现的基础。特别感谢原始作者 qpd-v 在初始版本上的创新工作。这个分支经过 Rahul Retnan 的改进,添加了更多功能。
如果 MCP 服务器因端口冲突而无法启动,请执行以下步骤:
npx kill-port 3030
lsof -i :3030