🧠 Memory MCP Server
概述
欢迎来到 Memory MCP Server!该项目通过实现 Model Context Protocol (MCP),为大型语言模型(LLMs)提供长期记忆功能。随着对上下文感知 AI 应用需求的增长,该服务器充当桥梁,使 LLMs 能够在长时间交互中保留信息。
目录
- 功能
- 安装
- 使用
- 贡献
- 许可证
- 联系
- 版本发布
功能
- 长期记忆:存储和检索 LLMs 的上下文,增强其提供相关响应的能力。
- Model Context Protocol (MCP):遵循 MCP 标准,与各种 LLM 架构无缝集成。
- 用户友好的 API:为开发者提供易于使用的 API,方便将记忆功能集成到应用中。
- 可扩展性:设计用于处理多个请求,并根据需求进行扩展。
安装
按照以下步骤开始使用 Memory MCP Server:
- 克隆仓库:
- 进入项目目录:
- 安装依赖:
确保已安装 Python 和 pip,然后运行:
- 启动服务器:
执行以下命令以启动服务器:
使用
服务器启动后,您可以通过 API 端点与其交互。以下是使用 Memory MCP Server 的快速指南。
API 端点
- 存储记忆:向
/store
发送 POST 请求,请求体为以下 JSON 格式:
- 检索记忆:向
/retrieve?model_id=唯一模型标识符
发送 GET 请求。
示例请求
使用
curl
测试 API 的示例如下:- 存储记忆:
- 检索记忆:
贡献
我们欢迎对 Memory MCP Server 的贡献!如果您想参与,请按照以下步骤操作:
- Fork 仓库:点击页面右上角的 "Fork" 按钮。
- 创建分支:
- 进行修改:编辑代码、添加功能或修复问题。
- 提交更改:
- 推送分支:
- 提交 Pull Request:回到原始仓库,点击 "New Pull Request"。
许可证
本项目采用 MIT 许可证。详情请参阅 LICENSE 文件。
联系
如有任何问题或反馈,请随时联系:
- 作者: Sinhan88
- GitHub: Sinhan88
版本发布
其他资源
- 文档:更详细的文档可在
docs
文件夹中找到。
- 社区:加入我们的 讨论论坛,分享想法并获取帮助。
致谢
感谢贡献者和社区的支持。特别感谢为本项目提供支持的库的开发者。
主题
本仓库涵盖以下主题:
- claude
- cursor
- cursor-ai
- cursorai
- llm
- llm-memory
- llms
- mcp
- mcp-server
- model-context-protocol
欢迎进一步探索这些主题!
感谢您访问 Memory MCP Server 仓库!希望您在涉及 LLMs 和长期记忆的项目中能从中受益。
- Author:waytomcp
- URL:https://www.waytomcp.com/article/Sinhan88/memory-mcp-server
- Copyright:All articles in this blog, except for special statements, adopt BY-NC-SA agreement. Please indicate the source!