本项目可将Wolfram Alpha无缝集成至您的聊天应用程序,实现高级对话功能。通过搭建MCP(模型上下文协议)服务器与Wolfram Alpha API对接,能让聊天应用执行计算查询并检索结构化知识。同时,还提供使用Gemini(通过LangChain)的MCP客户端示例,助力大型语言模型实时与Wolfram Alpha知识引擎交互。
本项目实现了一个MCP服务器,可与Wolfram Alpha API接口,让聊天应用具备强大的计算查询和知识检索能力。同时提供的MCP客户端示例,能帮助开发者快速将大型语言模型接入,实现与Wolfram Alpha的实时交互。
git clone https://github.com/ricocf/mcp-wolframalpha.git
cd mcp-wolframalpha
基于示例创建一个.env文件:
pip install -r requirements.txt
与VSCode MCP服务器一起使用:
configs/vscode_mcp.json
中的示例作为模板。与Claude Desktop一起使用:
{
"mcpServers": {
"WolframAlphaServer": {
"command": "python3",
"args": [
"/path/to/src/core/server.py"
]
}
}
}
此项目包含一个LLM客户端,用于与MCP服务器通信。
python main.py
构建并在Docker容器中运行客户端:
docker build -t wolframalpha -f .devops/llm.Dockerfile .
docker run -it wolframalpha