mcpServerCRM
If you are the rightful owner of mcpServerCRM and would like to certify it and/or have it hosted online, please leave a comment on the right or send an email to henry@mcphub.com.
Este servidor implementa el Protocolo de Contexto de Modelo (MCP) para proporcionar una capa segura de procesamiento de datos entre el CRM y los modelos de lenguaje (LLM).
Servidor MCP para CRM con IA
Este servidor implementa el Protocolo de Contexto de Modelo (MCP) para proporcionar una capa segura de procesamiento de datos entre el CRM y los modelos de lenguaje (LLM).
Características Principales
1. Seguridad de Datos
- Anonimización automática de datos personales
- Sistema de tokens para mantener la trazabilidad sin exponer información sensible
- Validación de datos antes del procesamiento con LLMs
2. Integración con Chatbots
- Manejo de contexto conversacional
- Sistema de Q&A con retroalimentación
- Evaluación continua de calidad de respuestas
3. Análisis de Leads
- Evaluación automática de potencial
- Seguimiento de interacciones
- Métricas de engagement
- Todo sin exponer datos personales
Configuración
- Crear archivo
.env
con las siguientes variables:
SECRET_KEY="your-secure-secret-key"
DATABASE_URL="your-supabase-postgres-url"
SUPABASE_URL="your-supabase-url"
SUPABASE_KEY="your-supabase-key"
SUPABASE_JWT_SECRET="your-jwt-secret"
DEFAULT_LLM_PROVIDER="openai"
DEFAULT_LLM_MODEL="gpt-4"
LLM_API_KEY="your-openai-api-key"
- Instalar dependencias:
pip install -r requirements.txt
- Iniciar el servidor:
uvicorn app.main:app --reload
Endpoints
Tokens y Autenticación
- POST
/api/v1/tokens/generate
: Genera tokens de acceso
Mensajes
- POST
/api/v1/messages/sanitize
: Sanitiza mensajes para procesamiento - POST
/api/v1/chatbot/context
: Gestiona contexto del chatbot - POST
/api/v1/qa-pairs
: Crea pares de pregunta-respuesta - POST
/api/v1/evaluate
: Evalúa mensajes con LLM
Análisis
- POST
/api/v1/analyze-lead
: Analiza leads de forma segura - GET
/api/v1/lead-metrics/{lead_id}
: Obtiene métricas históricas
Arquitectura de Seguridad
-
Capa de Anonimización
- Sanitización de datos personales
- Generación de tokens anónimos
- Validación de contenido
-
Capa de Contexto
- Manejo de contexto conversacional
- Sistema de Q&A
- Historial sanitizado
-
Capa de Análisis
- Evaluación de leads
- Métricas y seguimiento
- Reportes agregados
Integración con Base de Datos
El servidor utiliza Supabase como backend, con las siguientes tablas principales:
mensajes_sanitizados
: Almacena versiones sanitizadas de mensajescontexto_conversacional
: Mantiene el contexto de conversacionespii_tokens
: Gestiona tokens anónimoschatbot_contextos
: Configuración de chatbotsqa_pares
: Pares pregunta-respuesta para entrenamientoevaluaciones_llm
: Resultados de evaluaciones
Mejoras Continuas
El sistema incluye:
- Evaluación automática de calidad de respuestas
- Retroalimentación para mejora continua
- Métricas de rendimiento del LLM