ChiragPatankar_AI Customer Support Bot  MCP Server

ChiragPatankar_AI Customer Support Bot MCP Server

🚀 AI 客户支持机器人 - MCP 服务器

这是一个基于 Cursor AI 和 Glama.ai 集成的 AI 动力客户支持服务的模型上下文协议 (MCP) 服务器,能有效提升客户支持的效率和质量。

✨ 主要特性

  • 实时从 Glama.ai 获取上下文,确保回复的准确性和及时性。
  • 基于 Cursor AI 的自动回复生成,快速响应客户需求。
  • 支持批处理,可同时处理多个客户支持请求。
  • 具备小件队列,优化任务处理流程。
  • 有限流功能,防止用户滥用,保障系统稳定。
  • 支持用户交互跟踪,便于分析和优化服务。
  • 提供健康监测,实时掌握服务器状态。
  • 符合 MCP 协议,确保兼容性和规范性。

📦 安装指南

先决条件

  • Python 3.8+
  • PostgreSQL 数据库
  • Glama.ai API Key
  • Cursor AI API Key

安装步骤

  1. 克隆仓库:
git clone 
cd 
  1. 创建并激活虚拟环境:
python -m venv venv
source venv/bin/activate  # Windows: venv\Scripts\activate
  1. 安装依赖项:
pip install -r requirements.txt
  1. 基于 .env.example 创建 .env 文件:
cp .env.example .env
  1. 配置您的 .env 文件 credentials:
# API Keys
GLAMA_API_KEY=your_glama_api_key_here
CURSOR_API_KEY=your_cursor_api_key_here

# Database
DATABASE_URL=postgresql://user:password@localhost/customer_support_bot

# API URLs
GLAMA_API_URL=https://api.glama.ai

# 其他配置选项
DEBUG=False
LOG_LEVEL=INFO

🚀 快速开始

运行服务器

  1. 激活虚拟环境(如果已创建):
source venv/bin/activate  # Unix/MacOS
# 或者
venv\Scripts\activate  # Windows
  1. 启动服务器:
python app.py

📚 详细文档

API 端点

健康检查

  • GET /health
  • 返回服务状态信息。

上下文处理

  • POST /process_context
  • 处理客户支持请求的上下文数据。
  • 支持格式:JSON

批处理

  • POST /batch_process
  • 处理多个客户支持请求。
  • 支持格式:JSON 数组

限流

  • 所有 MCP 端点均需通过 X-MCP-Auth Header 进行身份验证。
  • 实现限流功能以防止用户滥用。
  • 数据库凭证应保存安全。
  • API Key 应避免版本控制中提交。

监控

服务器提供以下监控端点:

  • 服务状态
  • 限流使用情况
  • 连接服务状态
  • 处理时间

开发

  1. 更新 mcp_config.py 添加新的配置选项。
  2. 如需新模型,在 models.py 中添加。
  3. app.py 中创建新端点。
  4. 更新功能端点以反映新特性。

安全

  • 所有 MCP 端点均需通过 X-MCP-Auth Header 进行身份验证。
  • 实现限流功能以防止用户滥用。
  • 数据库凭证应保存安全。
  • API Key 应避免版本控制中提交。

支持

如需支持,请在仓库创建问题或联系开发团队。

  • 0 关注
  • 0 收藏,7 浏览
  • system 提出于 2025-09-28 14:21

相似服务问题