这是一个关于如何在Uber Eats之上构建MCP服务器的可行性研究(POC),旨在探索相关技术的可行性和应用潜力。
本项目围绕Uber Eats构建MCP服务器,借助模型上下文协议(MCP)实现LLM应用程序与外部工具的无缝集成。
uv venv
source .venv/bin/activate # 在Unix/Mac上
uv pip install -r requirements.txt
playwright install
.env
文件,添加您的API密钥:ANTHROPIC_API_KEY=your_openai_api_key_here
由于我们使用stdio作为MCP传输协议,我们需要禁用所有浏览器输出。
您可以运行以下命令启动MCP检查工具:
uv run mcp dev server.py
模型上下文协议 (Model Context Protocol, MCP) 是一个开放协议,使LLM应用程序与外部工具之间的无缝集成成为可能。
本项目基于Python 3.12及以上版本开发,使用了相关的依赖库来实现MCP服务器的功能。通过stdio作为MCP传输协议,需要对浏览器输出进行特殊处理,以确保系统的正常运行。同时,使用Anthropic API密钥或其他支持的LLM提供程序来实现与大语言模型的交互。
由于我们使用stdio作为MCP传输协议,我们需要禁用所有浏览器输出。