mengning/devstar-mcp-server
If you are the rightful owner of devstar-mcp-server and would like to certify it and/or have it hosted online, please leave a comment on the right or send an email to henry@mcphub.com.
The devstar-mcp-server is a specialized server designed to facilitate the implementation and management of Model Context Protocol (MCP) for various applications.
DevStar MCP Server
DevStar MCP Server 是一个完整的AI驱动开发平台解决方案,通过集成 DevStar 代码托管平台、私有化大语言模型、Gitea MCP 服务器和 Cursor IDE,为开发者提供智能化的代码生成、管理和审查体验。
🏗️ 系统架构
┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐
│ DevStar │ │ Private LLM │ │ Gitea MCP │ │ Cursor │
│ Studio │───▶│ (Ollama) │───▶│ Server │───▶│ IDE │
│ │ │ │ │ │ │ │
│ • 代码托管 │ │ • DeepSeek-R1 │ │ • MCP协议 │ │ • AI编程助手 │
│ • DevEnv引擎 │ │ • Qwen2.5-Coder │ │ • Git操作 │ │ • 代码生成 │
│ • CI/CD流水线 │ │ • 本地部署 │ │ • 仓库管理 │ │ • 智能对话 │
└─────────────────┘ └─────────────────┘ └─────────────────┘ └─────────────────┘
🚀 快速部署
一、部署 DevStar 代码托管平台
在Ubuntu-20.04下完成安装:
wget -c https://devstar.cn/assets/install.sh && chmod +x install.sh && sudo ./install.sh
devstar help
------------------------------------------------------------------------
DevStar usage help:
help, -h, --help, Help information
start Start DevStar Studio
--port=<arg> Specify the port number (default port is 8080)
--version=<arg> Specify the DevStar Studio Image Version (default verson is latest)
stop Stop the running DevStar Studio
logs View the logs of the devstar-studio container
clean Clean up the running DevStar Studio, including deleting user data. Please use with caution.
------------------------------------------------------------------------
sudo devstar start
...
-------------------------------------------------------
DevStar started in http://localhost:8080 successfully!
-------------------------------------------------------
然后通过浏览器打开http://localhost:8080 完成后配置安装,默认第一个注册用户为管理员账户。
产出结果: 可访问的 DevStar 代码托管平台 URL
如果你想试用在线演示或者使用免费的DevStar服务(有数量限制),请访问 devstar.cn。
如果你想快速本地部署自己的DevStar实例免费试用或者报告问题,请访问 https://github.com/mengning/DevStar。
二、私有化部署大语言模型
使用 Ollama 在本地部署高性能代码生成模型,并通过 ngrok 提供公共访问接口,支持多种编程语言和开发场景。
安装部署:
- 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
- 下载模型
ollama pull deepseek-r1:7b # 平衡选择
ollama pull qwen2.5-coder:7b # 代码专用
- 启动 Ollama 服务
ollama serve
- 安装并配置 ngrok
curl -sSL https://ngrok-agent.s3.amazonaws.com/ngrok.asc \
| sudo tee /etc/apt/trusted.gpg.d/ngrok.asc >/dev/null \
&& echo "deb https://ngrok-agent.s3.amazonaws.com bookworm main" \
| sudo tee /etc/apt/sources.list.d/ngrok.list \
&& sudo apt update \
&& sudo apt install ngrok
ngrok config add-authtoken <your-token>
- 启动 ngrok 提供公共访问
ngrok http 11434 --host-header="localhost:11434"
产出结果: 通过 ngrok 公共 URL 访问的本地大模型 API
📖
三、部署 Gitea MCP 服务器
安装配置:
# 从源码构建
git clone https://gitea.com/gitea/gitea-mcp.git
make install
# 构建后,将二进制文件 gitea-mcp 复制到系统 PATH 中包含的目录。例如:
cp gitea-mcp /usr/local/bin/
产出结果: 可用的 Gitea MCP 服务器实例
📖
第四步:配置 Cursor IDE
Cursor在内网无法使用私有部署的大模型,如果需要在内网使用,请配置continue.dev(4.4)或Cline(4.5) 在 Cursor 中集成前面配置好的 MCP 服务器和私有 LLM,实现 AI 驱动的智能编程体验。
4.1 在 Cursor 中配置 LLM
内置模型
cursor内置了很多LLMs,包括最先进的GPT4、Claude4和openai最新发布的推理模型o3,在右上角的设置中即可打开相应的模型进行辅助编程。
私有LLM
-
定义我们在cursor中使用的模型,可以使用
ollama list
查看您拥有的模型列表。 -
在 OpenAI Key 字段输入:
ollama
-
在 Base URL 字段输入:前面步骤中获取的 ngrok 公共地址
-
点击Verify,如果不成功,取消选中所有其他模型,仅选中刚添加的模型,再点击 Verify 即可。
4.2 在 Cursor 中配置 MCP 服务器
全局设置
- Cursor Setting → Tools & Integrations → MCP Tools
- 点击 "New MCP Server"
- 将前面步骤中的 MCP 配置代码添加到
mcp.json
文件
mcp.json文件
stdio方式
将GITEA_HOST配置为前面步骤中获取的 DevStar 代码托管平台 URL
GITEA_ACCESS_TOKEN配置为个人的access token
# 配置 MCP 服务器 --stdio
{
"mcpServers": {
"gitea": {
"command": "gitea-mcp",
"args": [
"-t",
"stdio",
"--host",
"https://devstar.cn"
// "--token", "<your personal access token>"
],
"env": {
// "GITEA_HOST": "https://devstar.cn",
// "GITEA_INSECURE": "true",
"GITEA_ACCESS_TOKEN": "<your personal access token>"
}
}
}
}
sse方式
./gitea-mcp -t sse --port 8080 --host <your devstar url> --token <your personal access token>
#配置 MCP 服务器 --sse
{
"mcpServers": {
"gitea": {
"url": "http://localhost:8080/sse"
}
}
}
4.3 验证配置
- 检查 MCP 状态: 在 Settings → MCP 中确认服务器显示为 Enabled 且有绿点标识
- 测试功能: 使用
Ctrl + L
打开智能对话,选择 Agent 模式测试代码生成和仓库操作
📖
4.4 Continue.dev 配置
配置 Ollama 集成 创建/编辑 ~/.continue/config.json:
{
"models": [
{
"title": "DeepSeek-R1 Local",
"provider": "ollama",
"model": "deepseek-r1:1.5b",
"apiBase": "http://localhost:11434"
}
],
"tabAutocompleteModel": {
"title": "Qwen Coder",
"provider": "ollama",
"model": "qwen2.5-coder:1.5b",
"apiBase": "http://localhost:11434"
},
"embeddingsProvider": {
"provider": "ollama",
"model": "nomic-embed-text",
"apiBase": "http://localhost:11434"
}
}
配置 MCP 服务器 创建文件 ~/.continue/config.yaml 或在工作区创建 .continue/mcpServers/gitea.yaml: stdio 方式:
# ~/.continue/config.yaml
name: DevStar MCP Server
version: 0.0.1
schema: v1
mcpServers:
- name: Gitea MCP
type: stdio
command: gitea-mcp
args:
- "-t"
- "stdio"
- "--host"
- "https://devstar.cn"
env:
GITEA_ACCESS_TOKEN: ${{ secrets.GITEA_ACCESS_TOKEN }}
sse 方式:
# .continue/mcpServers/gitea-sse.yaml
name: DevStar MCP Server
version: 0.0.1
schema: v1
mcpServers:
- name: Gitea MCP SSE
type: sse
url: "http://localhost:8080/sse"
env:
GITEA_ACCESS_TOKEN: ${{ secrets.GITEA_ACCESS_TOKEN }}
4.5 Cline 配置
配置 Ollama 集成 1.在 VSCode 中打开 Cline 插件设置: 2.找到 “Provider / API provider” 部分 3.选择 Ollama 4.填写 Base URL,通常是 http://localhost:11434/(默认 Ollama 的 API 端口) 5.选择你想用的模型(已经通过 Ollama pull 下来的)
配置 MCP Server 在 Cline 的 “MCP Servers” 界面里,选择 “Installed” 标签页。 添加一个新的 MCP Server 配置 文件内容同cursor
📖 使用示例
常用工具列表
DevStar MCP 服务器提供以下常用工具,帮助您高效管理 Gitea 仓库:
工具名称 | 功能分类 | 描述 | 使用示例 |
---|---|---|---|
get_my_user_info | 🔐 用户管理 | 获取已认证用户信息 | |
search_users | 🔐 用户管理 | 搜索用户 | |
create_repo | 📦 仓库管理 | 创建新仓库 | |
list_my_repos | 📦 仓库管理 | 列出用户拥有的仓库 | |
search_repos | 📦 仓库管理 | 搜索仓库 | |
create_branch | 🌿 分支管理 | 创建新分支 | |
delete_branch | 🌿 分支管理 | 删除分支 | |
list_branches | 🌿 分支管理 | 列出仓库分支 | |
create_issue | 🐛 问题管理 | 创建新问题 | |
list_repo_issues | 🐛 问题管理 | 列出仓库问题 | |
create_issue_comment | 🐛 问题管理 | 创建问题评论 | |
edit_issue_comment | 🐛 问题管理 | 编辑问题评论 | |
create_pull_request | 🔄 拉取请求 | 创建拉取请求 | |
list_repo_pull_requests | 🔄 拉取请求 | 列出拉取请求 |
完整的
🔧 高级配置
AI 代码审查
配置自动化的代码审查流程,提升代码质量:
📖
📄 许可证
本项目遵循 MIT 许可证。商业使用请联系 contact@mengning.com.cn
🔗 相关链接
开始您的 AI 驱动开发之旅! 🚀