ccglm-mcp

nosolosoft/ccglm-mcp

3.2

If you are the rightful owner of ccglm-mcp and would like to certify it and/or have it hosted online, please leave a comment on the right or send an email to henry@mcphub.com.

The CCGLM MCP Server enables the use of Claude Code with a GLM backend from Z.AI, allowing seamless integration without altering the primary configuration.

Tools
1
Resources
0
Prompts
0

CCGLM MCP Server

Servidor MCP que permite usar Claude Code con backend GLM de Z.AI desde la instancia principal de Claude Code (Anthropic Sonnet).

🎯 Propósito

Permite a Claude Code (con Sonnet de Anthropic) invocar otra instancia de Claude Code que utiliza los modelos GLM de Z.AI como backend, sin necesidad de cambiar la configuración principal.

🏗️ Arquitectura

Claude Code (Sonnet Anthropic)
    ↓
MCP Tool: mcp__ccglm-mcp__glm_route
    ↓
CCGLM MCP Server
    ↓
Claude CLI con env vars GLM
    ↓
Z.AI GLM API (https://api.z.ai/api/anthropic)
    ↓
Modelo GLM-4.6

📦 Instalación

1. Instalar Dependencias

cd ~/IA/ccglm-mcp
pip install -r requirements.txt

2. Configurar Credentials

Ya está configurado en .env:

GLM_BASE_URL=https://api.z.ai/api/anthropic
GLM_AUTH_TOKEN=5951e8ffb37b4f038ba9a47f49e86ff4.ZYOeeSK1MWARJ8YB

3. Registrar Servidor MCP

Añadir a ~/.claude/settings.json:

{
  "mcpServers": {
    "ccglm-mcp": {
      "command": "python3",
      "args": ["/home/manu/IA/ccglm-mcp/ccglm_mcp_server.py"],
      "timeout": 300000
    }
  }
}

4. Configurar Alias (Opcional)

Añadir a ~/.zshrc:

# Z.AI GLM Integration
export GLM_API_TOKEN="5951e8ffb37b4f038ba9a47f49e86ff4.ZYOeeSK1MWARJ8YB"
alias ccglm='ANTHROPIC_BASE_URL=https://api.z.ai/api/anthropic ANTHROPIC_AUTH_TOKEN=$GLM_API_TOKEN claude --dangerously-skip-permissions -c'

Recargar:

source ~/.zshrc

🛠️ Herramienta Disponible

glm_route

Única herramienta del servidor CCGLM-MCP. Enruta prompt a GLM-4.6 vía Claude CLI con backend Z.AI. Maneja todos los casos de uso: generación de código, análisis profundo y consultas generales.

Uso desde Claude Code:

Usa la herramienta mcp__ccglm-mcp__glm_route con el prompt: "Tu tarea aquí"

Uso con hashtag (configurado en CLAUDE.md):

#ccglm Explica qué es recursión
#ccglm Genera una API REST en Python
#ccglm Analiza este código en detalle

Características:

  • ✅ Generación de código con tracking de archivos
  • ✅ Análisis profundo (timeout 30 minutos)
  • ✅ Consultas generales
  • ✅ Excluye archivos internos (.claude/, .git/, etc.) del tracking

Nota: Usa el modelo GLM-4.6 configurado en ~/.claude/settings.json.

🧪 Testing

Ejecutar tests:

cd ~/IA/ccglm-mcp
python3 test_server.py

Tests incluidos:

  • ✅ File tracking (detección de archivos creados)
  • ✅ Log sanitization (redacción de tokens)
  • ⏸️ Basic prompt (comentado - requiere API call)
  • ⏸️ Code generation (comentado - requiere API call)

🔒 Seguridad

  • Token protegido: Almacenado en .env (gitignored)
  • Logs sanitizados: Token redactado automáticamente en logs
  • Environment isolation: Variables de entorno inyectadas solo en subprocess
  • Permisos: .env debe tener permisos 0600

📊 Logging

Todos los logs van a stderr (no stdout) para no interferir con el protocolo MCP stdio.

Ver logs en tiempo real:

python3 /home/manu/IA/ccglm-mcp/ccglm_mcp_server.py 2>&1 | grep -i glm

Niveles de log:

  • INFO: Operaciones normales
  • WARNING: Situaciones anómalas
  • ERROR: Fallos

⚙️ Configuración Avanzada

Timeouts

Configurados en ccglm_mcp_server.py:

  • DEFAULT_TIMEOUT = 600 (10 minutos)
  • MAX_TIMEOUT = 2400 (40 minutos)

Flags de Claude CLI

El servidor ejecuta Claude CLI con:

claude --dangerously-skip-permissions -c -p
  • --dangerously-skip-permissions: Skip permissions prompts
  • -c: Continue mode
  • -p: Print mode (non-interactive)

🐛 Troubleshooting

Error: "claude command not found"

Verifica que Claude CLI está instalado:

which claude

Si no está, instalar:

npm install -g @anthropic-ai/claude-code

Error: "GLM authentication failed"

Verifica que el token en .env es correcto y está activo.

Timeout errors

Si GLM tarda mucho, aumenta los timeouts en ccglm_mcp_server.py.

No aparece en herramientas MCP

  1. Verifica registro en ~/.claude/settings.json
  2. Reinicia Claude Code
  3. Verifica logs: python3 ccglm_mcp_server.py

📝 Uso desde Terminal

Además del servidor MCP, puedes usar GLM directamente desde terminal con el alias:

# Uso interactivo
ccglm

# Con prompt directo
echo "Explain recursion" | ccglm

🔄 Actualización

Para actualizar el servidor:

cd ~/IA/ccglm-mcp
git pull  # Si está en git
pip install -r requirements.txt --upgrade

Reiniciar Claude Code para recargar el servidor MCP.

📚 Referencias

🤝 Créditos

  • Basado en patrón de ccr-mcp
  • Integración con Z.AI GLM API
  • Implementado como parte del ecosistema Claude hybrid system

📄 Licencia

Uso interno - No redistribuir con credentials