MCPFileSystem_Client

MCPFileSystem_Client

🚀 使用说明

本项目用于启动一个基于本地大语言模型(LLM)的应用程序,以下是详细的使用步骤:

启动本地LLM服务器

在本地服务器上启动一个兼容OpenAI SDK的大语言模型(LLM),可以使用Jan来实现这一点。

修改.env文件

编辑.env文件,添加以下内容:

  • 所使用的模型名称
  • 提示语
  • 服务器的基础URL(默认已设置)

运行程序

执行命令node app.js以启动应用程序。

⚠️ 注意事项

访问权限限制

程序仅能访问指定的目录,默认情况下是files目录。如需修改,请在app.js中调整服务器MCP部分:

// EJ ln.20
const transport = new StdioClientTransport({
command: "npx",
args: [
"-y",
"@modelcontextprotocol/server-filesystem",
"ruta",
"otra ruta",
...
],
});

默认模型问题

默认情况下,.env文件中指定的模型可能无法正常工作,因为它不支持工具调用功能。请确保选择一个支持工具调用的模型。

  • 0 关注
  • 0 收藏,8 浏览
  • system 提出于 2025-09-29 13:54

相似服务问题