首页/编程智能体/mcp-dev-agent

mcp-dev-agent

查看源码
2025-5-11
Words 1529Read Time 4 min
Score:85

基于MCP协议的开发代理,提供内存管理、文档搜索、Git/GitHub集成等功能,支持CLI和SSE服务器模式。

Python

MCP 开发代理

基于模型上下文协议(Model Context Protocol, MCP)的开发代理,提供内存管理、文档搜索以及 Git/GitHub 集成功能,支持 CLI 工具和 SSE 服务器模式。
!MCP Dev Agent

功能特性

  • 🧠 内存系统:通过 ChromaDB 存储和检索信息
  • 📚 文档搜索:借助 AI 辅助搜索文档
  • 🔄 Git 集成:查询提交历史和问题
  • 🔍 代码分析:使用 tree-sitter 进行静态代码分析
  • 🌐 GitHub 集成:搜索仓库、问题、拉取请求、项目和代码
  • 💡 AI 助手:基于 Ollama 的本地 AI 功能
  • 💻 CLI 界面:交互式命令行界面
  • 🌐 服务器模式:支持服务器发送事件(Server-Sent Events, SSE)

环境要求

  • Python 3.x
  • ChromaDB
  • GitPython
  • FastMCP
  • PyGithub
  • tree-sitter

安装指南

全局安装(推荐)

  1. 按照 https://ollama.ai 的说明安装 Ollama。
  1. 拉取所需模型:
  1. 克隆并安装:
对于 Windows:
对于 Linux/MacOS:
此过程将:
  • 创建虚拟环境
  • 安装所有依赖项
  • 配置全局命令 mcp-dev-agent-cli
  • 设置所需的目录结构
  1. .env 文件中配置 GitHub 令牌
安装完成后,您可以在任何 Git 仓库中使用 mcp-dev-agent-cli 命令!

手动安装(替代方案)

  1. 按照 https://ollama.ai 的说明安装 Ollama。
  1. 拉取所需模型:
  1. 克隆仓库:
  1. 安装依赖项:
  1. 配置环境变量(复制 .env.example.env):

配置 GitHub 令牌

  1. 访问 GitHub 个人访问令牌
  1. 点击“生成新令牌(经典)”
  1. 为其命名(例如“MCP Dev Agent”)
  1. 选择以下权限:
      • repo(仓库的完全控制权限)
      • read:org(读取组织信息)
  1. 点击“生成令牌”
  1. 重要:立即复制您的令牌!之后将无法再次查看。
  1. 将其添加到 .env 文件中:
    1. 或在环境中设置:
      注意:将 ghp_your_actual_token_here 替换为您从 GitHub 复制的实际令牌。
      1. 设置代码解析器:

      使用指南

      全局 CLI

      MCP 开发代理可以通过全局命令在任何 Git 仓库中使用:
      此命令将:
      • 自动在项目中设置所需目录
      • 使用正确的 Python 环境
      • 在项目之间保持适当的上下文隔离

      传统 CLI 模式

      可用命令:

      内存管理

      • /memory add <content> - 添加新的通用内存
      • /memory get <query> - 搜索现有内存
      • /memory repo add <content> - 添加仓库特定内存
      • /memory repo get <query> - 搜索仓库特定内存

      Git 和 GitHub

      • /git commits [number] - 显示提交历史(默认:最后 5 条)
      • /git issues - 列出本地仓库问题
      • /git info - 显示详细的仓库信息
      • /git diff - 显示待提交的更改(已暂存和未暂存)
      • /github repo <owner/repo> - 显示仓库详情
      • /github issues <owner/repo> [state] - 列出问题(状态:open/closed)
      • /github prs <owner/repo> [state] - 列出拉取请求(状态:open/closed)
      • /github project <org> <number> - 显示项目信息
      • /github summarize <owner/repo> <issue_number> - 使用 GPT 生成问题摘要
      • /github search <query> [language] - 在 GitHub 上搜索代码

      代码分析

      • /code analyze <file> [language] - 分析代码结构并提供:
        • 代码目的的高级概述
        • 关键组件及其职责
        • 使用的显著模式或技术
        • 潜在的改进和最佳实践
        • 相关的安全注意事项
        • 结构分析(函数、类、导入)
      示例:

      文档

      • /docs <query> - 搜索文档
      • exit - 退出 CLI 模式

      高级功能

      代码分析

      系统使用 tree-sitter 分析以下语言的代码:
      • Python
      • JavaScript
      • TypeScript
      分析内容包括:
      • 函数和方法提取
      • 类识别
      • 导入映射
      • 上下文内存集成

      GitHub 集成

      • 详细的仓库信息
      • 问题搜索和列表
      • 拉取请求管理
      • GitHub 项目集成
      • 带语言过滤的代码搜索
      • 丰富的元数据
      • 使用 GPT 自动生成问题摘要

      增强的内存系统

      • 支持不同的上下文类型
      • 丰富的元数据
      • 上下文搜索
      • 时间历史记录
      • 代码分析集成
      • 自动摘要存储
      • Git 状态上下文化

      服务器模式(SSE)

      SSE 服务器支持通过 MCP 协议与其他应用程序集成。

      项目结构

      AI 模型配置

      代理使用 Ollama 的本地模型实现 AI 功能。已配置以下模型:
      1. CodeLlama(默认) - 针对代码相关任务优化
      1. Llama 2 - 通用任务
      1. Mistral - 用于各种任务的替代模型
      .agent.json 文件已配置:
      • CodeLlama 作为默认模型
      • 响应缓存(24 小时)
      • 交互日志记录

      模型参数

      您可以通过编辑 .agent.json 文件调整模型参数:
      • temperature:控制响应创造力(0.0 到 1.0)
      • context_window:最大上下文长度
      • top_p:控制响应多样性

      使用不同模型

      不同功能使用专门的模型:
      • 代码文档:CodeLlama
      • 问题摘要:CodeLlama
      • 通用查询:Llama 2
      无需 API 密钥 - 所有 AI 功能均通过 Ollama 本地运行!
      上一篇
      mcp-postgres-full-access-extended
      下一篇
      x-twitter-mcp-server