mengning/devstar-ai-devops
If you are the rightful owner of devstar-ai-devops and would like to certify it and/or have it hosted online, please leave a comment on the right or send an email to dayong@mcphub.com.
The devstar-mcp-server is a specialized server designed to facilitate the implementation and management of Model Context Protocol (MCP) for various applications.
DevStar AI DevOps
DevStar AI DevOps 是一个完整的AI驱动研发平台解决方案,通过集成 DevStar平台、代码大语言模型、Gitea MCP Server和 AI IDE(Cursor、Claude Code、iFlow等),为开发者提供智能化研发支撑体系。
🚀 快速部署
一、部署 DevStar 代码托管平台
在Ubuntu-20.04下完成安装:
wget -c https://devstar.cn/assets/install.sh && chmod +x install.sh && sudo ./install.sh
sudo devstar start
二、配置AI IDE(continue cline cursor(cursor不支持内网))
4.1 Continue.dev 配置
打开VScode,在扩展管理中搜索“continue"

4.2 LLM配置
点击Add Chat model,选择自己想要的模型类型。

选择相应的模型 provider 并填写你的api key

使用Ollama本地部署的LLM,相关配置如下图 📖

4.3 MCP配置
安装Gitea MCP 📖
将 JSON 配置文件直接复制到 .continue/mcpServers/ 目录中(注意复数“Servers”),Continue 将自动获取它们。

4.4 其他AI IDE配置
4.4.1 Cline配置
📖
4.4.2cursor配置
Cursor在内网无法使用私有部署的大模型,如果需要在内网使用,请配置continue.dev或Cline
📖
📖 使用示例
常用工具列表
DevStar MCP 服务器提供以下常用工具,帮助您高效管理 Gitea 仓库:
| 工具名称 | 功能分类 | 描述 | 使用示例 |
|---|---|---|---|
| get_my_user_info | 🔐 用户管理 | 获取已认证用户信息 | |
| search_users | 🔐 用户管理 | 搜索用户 | |
| create_repo | 📦 仓库管理 | 创建新仓库 | |
| list_my_repos | 📦 仓库管理 | 列出用户拥有的仓库 | |
| search_repos | 📦 仓库管理 | 搜索仓库 | |
| create_branch | 🌿 分支管理 | 创建新分支 | |
| delete_branch | 🌿 分支管理 | 删除分支 | |
| list_branches | 🌿 分支管理 | 列出仓库分支 | |
| create_issue | 🐛 问题管理 | 创建新问题 | |
| list_repo_issues | 🐛 问题管理 | 列出仓库问题 | |
| create_issue_comment | 🐛 问题管理 | 创建问题评论 | |
| edit_issue_comment | 🐛 问题管理 | 编辑问题评论 | |
| create_pull_request | 🔄 拉取请求 | 创建拉取请求 | |
| list_repo_pull_requests | 🔄 拉取请求 | 列出拉取请求 |
完整的
🔧 高级配置
AI 代码审查
配置自动化的代码审查流程,提升代码质量:
📖
📄 许可证
本项目遵循 MIT 许可证。商业使用请联系 contact@mengning.com.cn
🔗 相关链接
开始您的 AI 驱动开发之旅! 🚀