该项目展示了如何借助DuckDuckGo MCP服务器,结合LangChain Groq LLM代理,通过MCP(微组件协议)来执行智能搜索任务。
本项目可让你使用DuckDuckGo MCP服务器和LangChain Groq LLM代理进行智能搜索。按照以下步骤操作,即可快速开启搜索之旅。
deepseek-r1-distill-llama-70b
)用于推理:利用强大的语言模型进行推理。git clone https://github.com/alihassanml/Duckduckgo-with-MCP.git
cd Duckduckgo-with-MCP
pip install -r requirements.txt
(需确保requirements.txt
文件中包含langchain_groq
、python-dotenv
等库。)
.env
文件GROQ_API_KEY=your_groq_api_key_here
uvx -y duckduckgo-mcp-server
(确保uvx
已安装。若未安装,请先进行安装。)
运行主脚本:
python main.py
这将完成以下操作:
duckduckgo-mcp-server
import asyncio
import os
from dotenv import load_dotenv
from langchain_groq import ChatGroq
from mcp_use import MCPAgent, MCPClient
async def main():
load_dotenv()
config = {
"mcpServers": {
"ddg-search": {
"command": "uvx",
"args": ["-y", "duckduckgo-mcp-server"]
}
}
}
client = MCPClient.from_dict(config)
llm = ChatGroq(model="deepseek-r1-distill-llama-70b")
agent = MCPAgent(llm=llm, client=client, max_steps=30)
result = await agent.run("找到旧金山最好的餐厅")
print(f"\n结果: {result}")
if __name__ == "__main__":
asyncio.run(main())
该项目使用MIT许可证。