Mcp Rag Search Server

Mcp Rag Search Server

🚀 自定义 MCP 服务器与 RAG 和多搜索功能

这是一个自定义的 MCP(模型调用协议)服务器,借助 LlamaIndex 实现了检索增强生成(RAG)功能。同时,它还支持通过 Google 的 Gemini 2.0 API 和 Linkup 进行多网络搜索,为用户提供更丰富、更精准的搜索体验。

✨ 主要特性

  • 本地文档 RAG 工作流:可基于本地文档开展 RAG 工作,满足特定数据的处理需求。
  • 多种网络搜索功能
    • 高级 AI 驱动搜索:优先使用 Google 的 Gemini 2.0 进行高级 AI 驱动搜索,利用强大的 AI 能力获取更优质的搜索结果。
    • 传统网络搜索:可使用 Linkup 进行传统网络搜索,作为补充方案。
  • FastMCP 构建:采用 FastMCP 构建服务器,确保高效稳定的运行。

📦 安装指南

先决条件

  • Python 环境:Python 3.8 或更高版本。
  • 本地模型:本地安装 Ollama 并配备 DeepSeek 模型(也可修改配置以使用您偏好的模型)。
  • API 密钥
    • Google Gemini API 密钥(可在 https://ai.google.dev/ 获取)。
    • Linkup API 密钥(可选)。

安装步骤

  1. 克隆仓库
git clone 
cd own-mcp-server
  1. 安装依赖
pip install -r requirements.txt
  1. 设置环境变量:创建一个 .env 文件,并进行如下配置:
# 必需的 API 密钥
GEMINI_API_KEY=your_gemini_api_key_here
LINKUP_API_KEY=your_linkup_api_key_here

# 可选配置
OLLAMA_HOST=http://localhost:11434
  1. 添加文档:将文档添加到 data 目录(若该目录不存在,将自动创建)。

启动服务器

运行以下命令启动服务器:

python server.py

💻 使用示例

该服务器提供以下实用工具:

  1. web_search:使用最佳可用搜索方法(优先使用 Gemini 2.0 AI,必要时回退到 Linkup)。
  2. gemini_search:使用 Google 的 Gemini 2.0 AI 进行搜索。
  3. linkup_search:使用 Linkup 搜索。
  4. rag:查询您的本地文档。

📚 详细文档

此项目使用以下库来实现各项功能:

库名称 功能
llama-index 提供核心 RAG 功能
ollama 本地 LLM 集成
Google 生成式 AI SDK Gemini 2.0 集成
Linkup SDK 网络搜索功能
FastMCP MCP 服务器实现
python-dotenv 环境变量管理
nest-asyncio 异步支持

🔧 技术细节

故障排除

若遇到问题,可按以下步骤进行排查:

  1. 确保 Ollama 已正确安装并运行。
  2. 拉取 DeepSeek 模型:ollama pull deepseek-r1:1.5b
  3. 若遇到 Python 3.13 兼容性问题,可考虑降级到 Python 3.11 或 3.10。
  4. 验证您的 API 密钥是否正确且具有必要的权限。
  5. 对于 Gemini 2.0 相关问题,确保您的 API 密钥可以访问最新模型。
  • 0 关注
  • 0 收藏,10 浏览
  • system 提出于 2025-09-23 02:03

相似服务问题