Mentor_python_mcp_server

drvito1977/Mentor_python_mcp_server

3.1

If you are the rightful owner of Mentor_python_mcp_server and would like to certify it and/or have it hosted online, please leave a comment on the right or send an email to henry@mcphub.com.

The Model Context Protocol (MCP) server is designed to facilitate seamless integration and communication between machine learning models and various applications, providing a standardized interface for model interaction.

Exportación automática de MCP_SERVER_URL

Para que todos tus proyectos y scripts Python puedan consultar el servidor MCP sin configuraciones manuales, agrega la siguiente línea al final de tu archivo ~/.bashrc:

if [ -f "/home/gus/Mentor_python_mcp_server/scripts/exportar_mcp_url.sh" ]; then source /home/gus/Mentor_python_mcp_server/scripts/exportar_mcp_url.sh; fi

Esto hará que la variable MCP_SERVER_URL se exporte automáticamente cada vez que abras una terminal, apuntando a la URL correcta del servidor MCP (local o pública en Codespaces).

Tus scripts Python pueden consultar el servidor MCP así:

import os
import requests

url = os.environ.get("MCP_SERVER_URL", "http://127.0.0.1:8000/qa")
payload = {"question": "¿Qué es MCP?", "context": "Python Mentor"}
response = requests.post(url, json=payload)
print(response.json())

De esta forma, la integración es universal y automática en todos tus proyectos.

MCP QA Adapter

Adaptador y servidor FastAPI mínimo para exponer un pipeline de question-answering (por ejemplo DistilBERT) integrable en un servidor MCP.

Ejecutar localmente

  1. Instalar dependencias opcionales (si quieres usar transformers):
# si tienes poco espacio en /tmp, crea TMPDIR en /home
mkdir -p $HOME/tmp_pip
TMPDIR=$HOME/tmp_pip $VENV_PYTHON -m pip install --no-cache-dir transformers torch
  1. Levantar servidor (uvicorn):
uvicorn sistema.mcp_server:app --host 0.0.0.0 --port 8000
  1. Petición de ejemplo:
curl -X POST "http://127.0.0.1:8000/qa" -H "Content-Type: application/json" \
  -d '{"question":"¿Para qué se usa Python?","context":"Python es un lenguaje..."}'

Notas para tu portátil

  • Usa modelos CPU ligeros (distilbert, miniLM) para mantener coste 0.
  • Mantén el cache en $HOME para evitar problemas de espacio en /tmp.
  • Variables útiles: HF_HOME, TRANSFORMERS_CACHE, TMPDIR.