Frontapp MCP

Frontapp MCP

🚀 Frontapp MCP 服务器

Frontapp MCP 服务器是一个用于将大型语言模型(LLMs)与 Frontapp 客户沟通平台集成的 Model Context Protocol (MCP) 服务器。它允许您通过文本接口或 Webhooks 实时监控和控制聊天,同时提供全面的分析功能。

🚀 快速开始

Frontapp MCP 服务器可助力您将大型语言模型与 Frontapp 平台集成,实现实时对话监控与控制。以下是快速开始的步骤:

  1. 克隆仓库:
git clone git@github.com:yourusername/frontapp-mcp.git
cd frontapp-mcp
  1. 安装依赖:
npm install
  1. 配置环境变量并运行:
cp .env.example .env
# 填写你的Frontapp API密钥和其他配置
npm run dev

✨ 主要特性

  • 实时对话监控:通过文本接口或 Webhooks 实时接收所有对话更新。
  • 自动化规则:根据预设条件自动暂停、修改或标记对话。
  • 数据收集:获取详细的对话元数据以进行后续分析。
  • 可扩展性:支持大规模团队和高流量工作区。

📦 安装指南

快速安装

  1. 克隆仓库:
git clone git@github.com:yourusername/frontapp-mcp.git
cd frontapp-mcp
  1. 安装依赖:
npm install
  1. 配置环境变量并运行:
cp .env.example .env
# 填写你的Frontapp API密钥和其他配置
npm run dev

💻 使用示例

基础用法

客户端示例

const mcp = new MCPClient('http://localhost:3000');

mcp.onMessage((message, context) => {
console.log(`新消息:${message.text}`);
});

mcp.start();

Webhook 处理程序示例

export async function processWebhook(event) {
if (event.type === 'new_message') {
// 在这里添加自定义逻辑
await mcp.call('logMessage', { message: event.message });
}
}

高级用法

1. 初始化 MCP 服务器

  • 创建一个新工作区并在 Frontapp 中启用 MCP 集成。
  • 配置环境变量,包括:
    • FRONTAPP_API_KEY:您的 Frontapp API 密钥
    • PORT:服务器监听的端口(默认 3000)
    • 其他自定义设置

2. 连接 LLM

  • 使用任何兼容的 LLM 服务提供商,如:
    • OpenAI
    • Anthropic (Claude)
    • Google (PaLM)

3. 配置 Webhooks

webhooks.json中定义您的自定义逻辑:

{
"规则ID": {
"trigger": "event.type === 'message'",
"action": "callWebhook('https://your-webhook-url')"
}
}

📚 详细文档

完整的 API 文档和开发指南,请参阅官方文档

🔧 技术细节

兼容性

  • 支持与 Frontapp 的所有版本兼容
  • 适用于任何集成的 LLM,包括 GPT - 4, Claude, PaLM 等

开发

快速开发命令

# 启动开发服务器(支持热重载)
npm run dev

# 运行测试
npm test

# 格式化代码
npm run lint
npm run format

安全考虑

  • 始终使用 HTTPS 进行通信
  • 定期更新依赖库以防止安全漏洞
  • 配置适当的速率限制和身份验证机制
  • 对敏感数据进行加密存储和传输

📄 许可证

本项目采用 MIT 许可证,详情请参阅LICENSE文件。

重要链接

贡献

欢迎任何贡献!有关如何为该项目做出贡献的详细信息,请参阅Development Guide。

项目状态

smithery badge

  • 0 关注
  • 0 收藏,8 浏览
  • system 提出于 2025-09-28 18:42

相似服务问题