PromptFuzzer MCP

PromptFuzzer MCP

🚀 用于Garak LLM漏洞扫描器的轻量级MCP(模型上下文协议)服务器

本项目提供了一个轻量级MCP服务器,用于Garak LLM漏洞扫描器。它可以列出可用的模型类型和模型,列出Garak攻击/探测器,获取运行报告以及运行攻击,帮助用户检测LLM的漏洞。

🚀 快速开始

在使用该工具前,请确保满足以下先决条件:

  1. Python 3.11或更高版本:该项目需要Python 3.11或更新版本。

    # 检查你的Python版本
    python --version
    
  2. 安装uv:一个快速的Python包安装程序和解析器。

    pip install uv
    

    或使用Homebrew:

    brew install uv
    
  3. 可选:Ollama:如果你希望在ollama模型上运行攻击,请确保Ollama服务器正在运行。

ollama serve

✨ 主要特性

属性 详情
功能 可列出可用模型类型、模型、Garak攻击/探测器,获取运行报告,运行攻击
支持模型类型 ollama、openai、huggingface、ggml

📦 安装指南

  1. 克隆此仓库:
git clone https://github.com/BIGdeadLock/Garak-MCP.git
  1. 配置你的MCP主机(Claude Desktop、Cursor等):
{
"mcpServers": {
"garak-mcp": {
"command": "uv",
"args": ["--directory", "Garak-MCP所在路径", "run", "garak-server"],
"env": {}
}
}
}

📚 详细文档

工具概览

名称 描述
list_model_types 列出所有可用的模型类型(ollama、openai、huggingface、ggml)
list_models 列出指定模型类型的可用模型
list_garak_probes 列出所有可用的Garak攻击/探测器
get_report 获取最后一次运行的报告
run_attack 使用给定的模型和探测器运行攻击

详细说明

  • list_model_types

    • 列出所有可用于攻击的模型类型。
    • 返回支持的模型类型的列表(ollama、openai、huggingface、ggml)。
  • list_models

    • 列出指定模型类型的可用模型。
    • 输入参数:
      • model_type (字符串,必需):要列出的模型类型(ollama、openai、huggingface、ggml)。
    • 返回指定类型的可用模型列表。
  • list_garak_probes

    • 列出所有可用的Garak攻击/探测器。
    • 返回可用探测器/攻击的列表。
  • get_report

    • 获取最后一次运行的报告。
    • 返回报告文件的路径。
  • run_attack

    • 使用给定的模型和探测器运行攻击。
    • 输入参数:
      • model_type (字符串,必需):要使用的模型类型
      • model_name (字符串,必需):要使用的模型名称
      • probe_name (字符串,必需):要使用的攻击/探测器名称
    • 返回发现的漏洞列表。

🔧 技术细节

测试环境

  • [X] Cursor
  • [X] Claude Desktop

未来计划

  • [ ] 添加对Smithery AI的支持:Docker和配置
  • [ ] 改进报告功能
  • [ ] 测试并验证OpenAI模型(GPT-3.5、GPT-4)
  • [ ] 测试并验证HuggingFace模型
  • [ ] 测试并验证本地GGML模型
  • 0 关注
  • 0 收藏,11 浏览
  • system 提出于 2025-09-30 05:45

相似服务问题