MCP_llama
使用 LLama 的模型上下文协议(Model Context Protocol, MCP)
MCP 文件系统服务器
该服务器为本地文件系统提供了模型上下文协议(MCP)接口,允许 Ollama 访问文件作为生成响应的上下文。
功能
- 📂 文件系统访问:将本地文件作为上下文提供给语言模型
- 🧠 MCP 集成:遵循模型上下文协议的结构化上下文
- 🔄 Ollama 集成:无缝连接 Ollama 的 API
- 💬 交互模式:在会话中基于文件上下文进行聊天
- 🌐 RESTful API:提供简单的 HTTP 端点,支持程序化访问
安装
前置条件
- Python 3.8 或更高版本
- 已安装并运行 Ollama
设置
- 克隆此仓库或复制文件
- 安装依赖:
使用
启动服务器
选项:
--host
:主机地址(默认:127.0.0.1)
--port
:端口号(默认:8000)
--ollama-url
:Ollama API 端点(默认:http://localhost:11434/api/chat)
--file-limit
:最大文件大小(单位:MB,默认:5)
--context-limit
:最大总上下文大小(单位:MB,默认:10)
使用客户端
客户端提供三种主要操作模式:
1. 列出文件
列出匹配模式的文件:
2. 一次性查询
发送带有文件上下文的查询:
可以使用模式包含多个文件:
3. 交互式会话
启动带有持久化上下文的交互式聊天会话:
在交互模式下,可以使用以下命令:
/files add <路径>
- 将文件添加到上下文
/files clear
- 清除文件上下文
/files list
- 列出当前上下文文件
/system <提示>
- 设置系统提示
/clear
- 清除会话历史
/exit
- 退出会话
API 端点
文件操作
POST /files/list
- 列出匹配模式的文件
POST /files/read
- 读取文件内容
MCP 操作
POST /mcp/query
- 使用 MCP 向 LLM 发送带有文件上下文的查询
POST /mcp/raw
- 向 Ollama 发送原始 MCP 请求
示例工作流
代码理解
文档分析
技术支持
高级用法
自定义系统提示
使用系统提示来引导模型的行为:
文件模式
使用 glob 模式包含多个文件:
故障排除
- 文件过大:使用
--file-limit
增加文件大小限制
- 上下文过大:使用
--context-limit
增加上下文限制,或减少文件数量
- 连接错误:确保 Ollama 正在运行,并且可通过指定 URL 访问
限制
- 不支持二进制文件
- 非常大的文件可能会被截断
- 总上下文大小受模型最大上下文窗口的限制
- Author:waytomcp
- URL:https://www.waytomcp.com/article/anishchapagain/MCP_llama
- Copyright:All articles in this blog, except for special statements, adopt BY-NC-SA agreement. Please indicate the source!