RAG Documentation

RAG Documentation

🚀 RAG 文档 MCP 服务器

RAG 文档 MCP 服务器是一个 MCP 服务器实现,提供通过向量搜索检索和处理文档的工具,能让 AI 助手借助相关文档上下文增强其响应内容。

🚀 快速开始

安装依赖项

要确保已经安装以下工具:

  • Node.js(推荐版本 14+)
  • Docker(可选,用于 Docker Compose)

克隆仓库

git clone https://github.com/your-repository.git
cd mcp-ragdocs

运行服务器

npm install
node index.js

默认情况下,服务器将在 http://localhost:3030 上运行。

✨ 主要特性

此 MCP 服务器具备以下功能:

  1. 文档检索:通过向量搜索高效检索相关文档。
  2. 上下文增强:使 AI 助手能够引用和理解文档内容,提升响应质量。
  3. 多语言支持:支持多种语言的文档处理与检索。

📦 安装指南

Docker Compose 设置

使用以下 docker-compose.yml 文件启动服务:

version: '3'
services:
mcp-ragdocs:
build: .
ports:
- "3030:3030"
environment:
- EMBEDDING_PROVIDER=ollama
- OPENAI_API_KEY=your-api-key-here

运行命令:

docker-compose up --build

📚 详细文档

Web 界面

访问 http://localhost:3030 可使用默认的 Web 界面进行文档检索和管理。

配置

Cline 配置

.env 文件中设置以下环境变量:

EMBEDDING_PROVIDER=ollama  # 可选值:ollama 或 openai
OPENAI_API_KEY=your-api-key-here  # 必填(如果使用 OpenAI)
QDRANT_URL=http://localhost:6333  # 可选,默认为 http://localhost:6333

Claude Desktop 配置

config.json 文件中设置以下内容:

{
"EMBEDDING_PROVIDER": "ollama",
"OPENAI_API_KEY": "your-api-key-here",
"QDRANT_URL": "http://localhost:6333"
}

默认配置

系统默认使用 Ollama 作为嵌入提供程序。为了最佳可靠性:

  1. 安装并运行 Ollama 本地。
  2. 配置 OpenAI 作为备用(推荐):
{
"EMBEDDING_MODEL": "nomic-embed-text", // 可选
"FALLBACK_PROVIDER": "openai",
"FALLBACK_MODEL": "text-embedding-3-small",
"OPENAI_API_KEY": "your-api-key-here"
}

此配置确保:

  • 使用 Ollama 进行快速本地嵌入生成。
  • 自动 fallback 到 OpenAI 如果 Ollama 失败。
  • 只在必要时进行外部 API 调用。

注意:系统将根据提供程序自动使用适当的向量维度:

  • Ollama (nomic-embed-text):768 维度
  • OpenAI (text-embedding-3-small):1536 维度

📄 许可证

文档中未提及相关信息,故跳过该章节。

🔧 技术细节

文档中未提供具体的技术实现细节(内容未超过 50 字),故跳过该章节。

⭐ 致谢

该项目是 qpd-v/mcp-ragdocs 的一个分支,最初由 qpd-v 开发。原始项目提供了此实现的基础。特别感谢原始作者 qpd-v 在初始版本上的创新工作。这个分支经过 Rahul Retnan 的改进,添加了更多功能。

🛠️ 故障排除

服务器未启动(端口冲突)

如果 MCP 服务器因端口冲突而无法启动,请执行以下步骤:

  1. 识别并终止使用端口 3030 的进程:
npx kill-port 3030
  1. 重新启动 MCP 服务器
  2. 如果问题仍然存在,请检查是否有其他进程占用该端口:
lsof -i :3030
  1. 如果需要,可以在配置中更改默认端口。
  • 0 关注
  • 0 收藏,10 浏览
  • system 提出于 2025-09-20 11:42

相似服务问题