这是一个结合了DeepSeek R1推理能力和Claude 3.5 Sonnet响应生成能力的MCP服务器,借助OpenRouter实现。它采用两阶段流程,先由DeepSeek进行初始推理(上下文限制为50,000字符),再将推理结果注入Claude生成最终响应(上下文限制为600,000字符),为用户提供更强大的对话服务。
要启动MCP服务器,请运行:
python server.py
之后,您可以使用任何HTTP客户端(如curl或Postman)发送请求到http://localhost:5000
。
两阶段处理:
智能对话管理:
优化参数:
通过Smithery自动安装DeepSeek Thinking与Claude 3.5 Sonnet:
npx -y @smithery/cli install @newideas99/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP --client claude
git clone https://github.com/yourusername/Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP.git
cd Deepseek-Thinking-Claude-3.5-Sonnet-CLINE-MCP
python -m venv .venv
source .venv/bin/activate # 在Linux/Mac中使用
# 或者
.\.venv\Scripts\activate # 在Windows中使用
pip install -r requirements.txt
对于开发环境下的自动重建,可运行:
npm run watch
本项目采用MIT License,详细信息请参阅LICENSE文件。
本项目基于Skirano提出的RAT(检索增强思考)概念,该方法通过结构化推理和知识检索增强了AI响应。此实现具体结合了DeepSeek R1的推理能力与Claude 3.5 Sonnet的响应生成能力,通过OpenRouter的统一API实现。