这是一个自定义的 MCP(模型调用协议)服务器,借助 LlamaIndex 实现了检索增强生成(RAG)功能。同时,它还支持通过 Google 的 Gemini 2.0 API 和 Linkup 进行多网络搜索,为用户提供更丰富、更精准的搜索体验。
git clone
cd own-mcp-server
pip install -r requirements.txt
.env
文件,并进行如下配置:# 必需的 API 密钥
GEMINI_API_KEY=your_gemini_api_key_here
LINKUP_API_KEY=your_linkup_api_key_here
# 可选配置
OLLAMA_HOST=http://localhost:11434
data
目录(若该目录不存在,将自动创建)。运行以下命令启动服务器:
python server.py
该服务器提供以下实用工具:
web_search
:使用最佳可用搜索方法(优先使用 Gemini 2.0 AI,必要时回退到 Linkup)。gemini_search
:使用 Google 的 Gemini 2.0 AI 进行搜索。linkup_search
:使用 Linkup 搜索。rag
:查询您的本地文档。此项目使用以下库来实现各项功能:
库名称 | 功能 |
---|---|
llama-index | 提供核心 RAG 功能 |
ollama | 本地 LLM 集成 |
Google 生成式 AI SDK | Gemini 2.0 集成 |
Linkup SDK | 网络搜索功能 |
FastMCP | MCP 服务器实现 |
python-dotenv | 环境变量管理 |
nest-asyncio | 异步支持 |
若遇到问题,可按以下步骤进行排查:
ollama pull deepseek-r1:1.5b
。