本项目是一个借助 Cursor AI 和 Glama.ai 集成的 AI 驱动客户支持的模型上下文协议 (MCP) 服务器,它能实时从 Glama.ai 获取上下文,利用 Cursor AI 生成智能响应,为客户支持工作带来高效与智能的体验。
git clone
cd
python -m venv venv
source venv/bin/activate # 在 Windows 上:venv\Scripts\activate
pip install -r requirements.txt
.env.example
创建 .env
文件:cp .env.example .env
.env
文件,使用以下示例:# 环境变量配置示例
DATABASE_URL=postgresql://user:password@localhost/dbname
API_KEY=your_api_key_here
MCP_SERVER_ADDRESS=http://localhost:8080
python app.py
所有 MCP 端点均要求通过 X-MCP-Auth
标头进行身份验证。
mcp_config.py
添加新的配置选项models.py
中添加app.py
中创建新的端点⚠️ 重要提示
- 所有 MCP 端点均要求通过
X-MCP-Auth
标头进行身份验证。- 实现了速率限制以防止滥用
- 数据库凭证需保持安全
- API 密钥请勿提交到版本控制中
服务器提供了用于监控的端点:
错误代码 | 描述 |
---|---|
401 | 未授权 |
503 | 服务不可用 |
429 | 请求过多 |
本项目在 MIT 许可证下发布 - 请查看 LICENSE 文件获取详细信息。
如需支持,请在仓库中创建问题或联系开发团队。