MCP 开发代理
基于模型上下文协议(Model Context Protocol, MCP)的开发代理,提供内存管理、文档搜索以及 Git/GitHub 集成功能,支持 CLI 工具和 SSE 服务器模式。
!MCP Dev Agent
功能特性
- 🧠 内存系统:通过 ChromaDB 存储和检索信息
- 📚 文档搜索:借助 AI 辅助搜索文档
- 🔄 Git 集成:查询提交历史和问题
- 🔍 代码分析:使用 tree-sitter 进行静态代码分析
- 🌐 GitHub 集成:搜索仓库、问题、拉取请求、项目和代码
- 💡 AI 助手:基于 Ollama 的本地 AI 功能
- 💻 CLI 界面:交互式命令行界面
- 🌐 服务器模式:支持服务器发送事件(Server-Sent Events, SSE)
环境要求
- Python 3.x
- ChromaDB
- GitPython
- FastMCP
- PyGithub
- tree-sitter
- Ollama (https://ollama.ai)
安装指南
全局安装(推荐)
- 按照 https://ollama.ai 的说明安装 Ollama。
- 拉取所需模型:
- 克隆并安装:
对于 Windows:
对于 Linux/MacOS:
此过程将:
- 创建虚拟环境
- 安装所有依赖项
- 配置全局命令
mcp-dev-agent-cli
- 设置所需的目录结构
- 在
.env
文件中配置 GitHub 令牌
安装完成后,您可以在任何 Git 仓库中使用
mcp-dev-agent-cli
命令!手动安装(替代方案)
- 按照 https://ollama.ai 的说明安装 Ollama。
- 拉取所需模型:
- 克隆仓库:
- 安装依赖项:
- 配置环境变量(复制
.env.example
到.env
):
配置 GitHub 令牌
- 点击“生成新令牌(经典)”
- 为其命名(例如“MCP Dev Agent”)
- 选择以下权限:
repo
(仓库的完全控制权限)read:org
(读取组织信息)
- 点击“生成令牌”
- 重要:立即复制您的令牌!之后将无法再次查看。
- 将其添加到
.env
文件中:
- 或在环境中设置:
注意:将
ghp_your_actual_token_here
替换为您从 GitHub 复制的实际令牌。- 设置代码解析器:
使用指南
全局 CLI
MCP 开发代理可以通过全局命令在任何 Git 仓库中使用:
此命令将:
- 自动在项目中设置所需目录
- 使用正确的 Python 环境
- 在项目之间保持适当的上下文隔离
传统 CLI 模式
可用命令:
内存管理
/memory add <content>
- 添加新的通用内存
/memory get <query>
- 搜索现有内存
/memory repo add <content>
- 添加仓库特定内存
/memory repo get <query>
- 搜索仓库特定内存
Git 和 GitHub
/git commits [number]
- 显示提交历史(默认:最后 5 条)
/git issues
- 列出本地仓库问题
/git info
- 显示详细的仓库信息
/git diff
- 显示待提交的更改(已暂存和未暂存)
/github repo <owner/repo>
- 显示仓库详情
/github issues <owner/repo> [state]
- 列出问题(状态:open/closed)
/github prs <owner/repo> [state]
- 列出拉取请求(状态:open/closed)
/github project <org> <number>
- 显示项目信息
/github summarize <owner/repo> <issue_number>
- 使用 GPT 生成问题摘要
/github search <query> [language]
- 在 GitHub 上搜索代码
代码分析
/code analyze <file> [language]
- 分析代码结构并提供:- 代码目的的高级概述
- 关键组件及其职责
- 使用的显著模式或技术
- 潜在的改进和最佳实践
- 相关的安全注意事项
- 结构分析(函数、类、导入)
示例:
文档
/docs <query>
- 搜索文档
exit
- 退出 CLI 模式
高级功能
代码分析
系统使用 tree-sitter 分析以下语言的代码:
- Python
- JavaScript
- TypeScript
分析内容包括:
- 函数和方法提取
- 类识别
- 导入映射
- 上下文内存集成
GitHub 集成
- 详细的仓库信息
- 问题搜索和列表
- 拉取请求管理
- GitHub 项目集成
- 带语言过滤的代码搜索
- 丰富的元数据
- 使用 GPT 自动生成问题摘要
增强的内存系统
- 支持不同的上下文类型
- 丰富的元数据
- 上下文搜索
- 时间历史记录
- 代码分析集成
- 自动摘要存储
- Git 状态上下文化
服务器模式(SSE)
SSE 服务器支持通过 MCP 协议与其他应用程序集成。
项目结构
AI 模型配置
代理使用 Ollama 的本地模型实现 AI 功能。已配置以下模型:
- CodeLlama(默认) - 针对代码相关任务优化
- Llama 2 - 通用任务
- Mistral - 用于各种任务的替代模型
.agent.json
文件已配置:- CodeLlama 作为默认模型
- 响应缓存(24 小时)
- 交互日志记录
模型参数
您可以通过编辑
.agent.json
文件调整模型参数:temperature
:控制响应创造力(0.0 到 1.0)
context_window
:最大上下文长度
top_p
:控制响应多样性
使用不同模型
不同功能使用专门的模型:
- 代码文档:CodeLlama
- 问题摘要:CodeLlama
- 通用查询:Llama 2
无需 API 密钥 - 所有 AI 功能均通过 Ollama 本地运行!
- Author:waytomcp
- URL:https://www.waytomcp.com/article/aleksanderpalamar/mcp-dev-agent
- Copyright:All articles in this blog, except for special statements, adopt BY-NC-SA agreement. Please indicate the source!