luconezena/mcp_server_test-
If you are the rightful owner of mcp_server_test- and would like to certify it and/or have it hosted online, please leave a comment on the right or send an email to dayong@mcphub.com.
Il Gelato Artigianale Italiano (MCP) is a server designed for managing and balancing gelato recipes using FastAPI with SSE transport, compatible with ChatGPT Developer Mode.
Il Gelato Artigianale Italiano (MCP)
Server FastAPI con trasporto Streamable HTTP e SSE compatibili con ChatGPT Developer Mode e UI web per bilanciamento ricette gelato.
Struttura
index.py: entrypoint per Vercel (esportaapp)gelato_mcp/server_http.py: FastAPI app (Streamable HTTP/mcp, SSE/sse, UI/ui, health/health)gelato_mcp/web/: asset UI (HTML/CSS/JS)requirements.txt: dipendenze Python per deployvercel.json: configurazione routing Vercel
Esecuzione locale
# opzionale: crea venv
python -m venv .venv; .\.venv\Scripts\Activate.ps1
pip install -r requirements.txt
# avvio server (porta di default 8000)
python -m gelato_mcp.server_http --host 127.0.0.1 --port 8000
# oppure script PowerShell
./gelato_mcp/start_server.ps1 -ListenHost 127.0.0.1 -Port 8000
# prova
Start-Process http://127.0.0.1:8000/ui
Invoke-WebRequest http://127.0.0.1:8000/health | Select-Object -ExpandProperty StatusCode
Deploy su Vercel
- Assicurati che il repo GitHub sia collegato a Vercel
- Importa il repository
luconezena/mcp_server_test- - Build & deploy automatico con
@vercel/python(usaindex.py) - Verifica:
GET /health→ 200GET /ui→ UI webGET /mcp/→ JSON informativo (per browser)
Endpoint esposti
- Streamable HTTP (consigliato per ChatGPT):
/mcp/rpc - SSE (alternativo):
/sse(lo stream annuncia l'endpoint POST/sse/messages) - UI:
/ui - Health:
/health
Se necessario, configura variabili d’ambiente su Vercel:
HOST(default: 0.0.0.0)PORT(ignorato su Vercel; gestito dal runtime)LOG_LEVEL(info, debug)
Integrazione con ChatGPT Developer Mode
Opzione A — Streamable HTTP (consigliato):
- In ChatGPT > Developer Tools > External Tools > Add > HTTP (Streamable)
- URL:
https://<tuo-progetto>.vercel.app/mcp/rpc
Opzione B — SSE:
- In ChatGPT > Developer Tools > External Tools > Add > SSE
- URL:
https://<tuo-progetto>.vercel.app/sse(il server invieràevent: endpointcon/sse/messages?session_id=...per i POST)
Tool disponibili: suggest_targets, balance_recipe, export_whatsapp.
Note
- UI localizzata, preset, formule realistiche (POD, PAC, ecc.)
MCP Server Test
Server MCP minimale che implementa un tool ping che risponde con "pong:
Disponibile in due versioni:
server.py: Versione STDIO per test locali e integrazione con MCP Inspectorserver_http.py: Versione HTTP/SSE per integrazione con ChatGPT Developer Mode
Requisiti
- Python 3.11 o superiore
- pip
Installazione e Avvio
Quick Start - 3 comandi:
- Attiva l'ambiente virtuale (se non già attivo):
.\venv\Scripts\Activate.ps1
- Installa le dipendenze:
pip install -r requirements.txt
- Avvia il server:
python server.py
Prima configurazione completa:
Se è la prima volta che configuri il progetto:
- Crea un ambiente virtuale (opzionale ma consigliato):
python -m venv venv
- Attiva l'ambiente virtuale:
.\venv\Scripts\Activate.ps1
- Installa le dipendenze:
pip install -r requirements.txt
- Avvia il server:
python server.py
Il server rimarrà in ascolto e comunicherà tramite standard input/output. Per fermarlo, premi Ctrl+C (verrà eseguito un graceful shutdown).
Avvio versione HTTP/SSE (per ChatGPT):
Per avviare il server HTTP/SSE su http://localhost:8000:
Opzione 1 - Script automatico (consigliato):
.\start_server.ps1
Opzione 2 - Manuale:
.\venv\Scripts\Activate.ps1
python server_http.py
Il server sarà accessibile su:
- Endpoint SSE:
http://localhost:8000/sse - Health check:
http://localhost:8000/health - Info:
http://localhost:8000/
Test del server
Test versione STDIO:
Per testare la versione STDIO, puoi utilizzare l'MCP Inspector:
npx @modelcontextprotocol/inspector python server.py
Test versione HTTP/SSE:
-
Test con browser: Apri
http://localhost:8000per vedere le info del server -
Test con curl (health check):
curl http://localhost:8000/health
- Integrazione con ChatGPT Developer Mode:
- Avvia il server:
python server_http.py - Vai su ChatGPT e attiva "Developer Mode"
- Configura l'endpoint:
http://localhost:8000/sse - ChatGPT potrà ora usare il tool
ping!
- Avvia il server:
Funzionalità
Tool disponibili:
- ping: Accetta una stringa come parametro
messagee risponde con"pong: <stringa ricevuta>"
Esempio di utilizzo:
Quando il tool ping viene chiamato con:
{
"message": "ciao mondo"
}
Risponde con:
pong: ciao mondo
Logging
Il server include logging basilare che mostra:
- Quando viene richiesta la lista dei tool
- Quando viene chiamato un tool
- I parametri ricevuti e la risposta generata