Mcp Wolframalpha

Mcp Wolframalpha

🚀 MCP Wolfram Alpha(客户端 + 服务器)

本项目可将Wolfram Alpha无缝集成至您的聊天应用程序,实现高级对话功能。通过搭建MCP(模型上下文协议)服务器与Wolfram Alpha API对接,能让聊天应用执行计算查询并检索结构化知识。同时,还提供使用Gemini(通过LangChain)的MCP客户端示例,助力大型语言模型实时与Wolfram Alpha知识引擎交互。

🚀 快速开始

本项目实现了一个MCP服务器,可与Wolfram Alpha API接口,让聊天应用具备强大的计算查询和知识检索能力。同时提供的MCP客户端示例,能帮助开发者快速将大型语言模型接入,实现与Wolfram Alpha的实时交互。

✨ 主要特性

  • Wolfram|Alpha集成:用于数学、科学和数据查询。
  • 模块化架构:易于扩展以支持其他API和功能。
  • 多客户端支持:无缝处理来自多个客户端或界面的交互。
  • MCP客户端示例:使用Gemini(通过LangChain)。

📦 安装指南

克隆仓库

git clone https://github.com/ricocf/mcp-wolframalpha.git

cd mcp-wolframalpha

设置环境变量

基于示例创建一个.env文件:

  • WOLFRAM_API_KEY=your_wolframalpha_appid
  • GeminiAPI=your_google_gemini_api_key (可选,如果使用以下客户端方法)

安装依赖项

pip install -r requirements.txt

配置

与VSCode MCP服务器一起使用:

  1. 在项目根目录下创建一个.mcp.json文件。
  2. 使用configs/vscode_mcp.json中的示例作为模板。
  3. 有关更多详细信息,请参阅VSCode MCP服务器指南

与Claude Desktop一起使用:

{
"mcpServers": {
"WolframAlphaServer": {
"command": "python3",
"args": [
"/path/to/src/core/server.py"
]
}
}
}

💻 使用示例

基础用法

此项目包含一个LLM客户端,用于与MCP服务器通信。

作为CLI工具运行

  • 需要:GeminiAPI
  • 直接从命令行运行客户端:
python main.py

高级用法

Docker

构建并在Docker容器中运行客户端:

docker build -t wolframalpha -f .devops/llm.Dockerfile .

docker run -it wolframalpha
  • 0 关注
  • 0 收藏,11 浏览
  • system 提出于 2025-09-21 06:51

相似服务问题