mcp_server

fishr-flash/mcp_server

3.1

If you are the rightful owner of mcp_server and would like to certify it and/or have it hosted online, please leave a comment on the right or send an email to dayong@mcphub.com.

The Model Context Protocol (MCP) server is a framework designed to host models, tools, and agents, facilitating seamless integration and interaction.

🗺️ ROADMAP MCP-GPT

Цели

  • Построить модульный MCP-клиент, встраивающийся в агентные среды.
  • Эволюционно развивать архитектуру от простого вызова модели до полноценной интеграции с MCP-сервисами.
  • Обеспечить наблюдаемость и управляемость через инструментарий LangSmith.

Этапы

1. Прямое обращение к модели (база)

  • Использовать OpenAI SDK.
  • Проверить работоспособность окружения, получение ответов от модели.
    Статус: реализовано ✅

2. Создание tools и интеллектуальный выбор моделью

  • Использовать function calling API (tools, tool_choice: auto).
  • Определить несколько функций (например: search, read_file).
  • Модель сама решает, когда вызвать инструмент.
    Статус: реализовано ✅

3. Наблюдаемость и трассировка

  • Подключить LangSmith для логов, трейсинга, метрик и эвалов.
  • Зафиксировать метрики: токены, латентность, ошибки.
  • Использовать для A/B тестов промптов и инструментов.
    Статус: реализовано ✅

4. Оркестрация через LangGraph

  • Построить граф: узлы LLM, tools, состояние.
  • Реализовать контроль циклов, остановок, ветвлений.
  • Перейти от классических агентов LangChain к LangGraph (рекомендованный подход).
    Статус: реализовано ✅ (в Jupyter и CLI)

5. Создание агента

  • Агент управляет выбором инструмента на основе контекста (policy).
  • Поддерживает fallback и retry.
  • Оркестрация фиксируется в LangSmith.
    Статус: реализовано ✅

6. Интеграция MCP

  • Поднять MCP-сервер-заглушку (методы echo, read_file).
  • Добавить MCP-адаптер как один из инструментов агента.
  • Проверить, что агент умеет выбирать: локальный tool или MCP-сервис.
    Статус: реализовано ✅

7. Telegram-бот Xaia

  • Создать сервис xaia-bot (на aiogram).
  • Деплой через docker-compose.bot.yaml.
  • Переменные окружения: TELEGRAM_BOT_TOKEN, BOT_CONFIG, ALLOWED_USERNAMES.
  • Фильтрация доступа по username.
  • Решена проблема конфликта polling (один экземпляр активен на VPS).
    Статус: релиз завершён, бот работает ✅

Принципы

  • Локальный tool = MCP tool (через адаптер). Один и тот же функционал доступен в двух режимах → проще тестировать и сравнивать.
  • Наблюдаемость раньше сложной логики: LangSmith подключается уже на этапе function calling.
  • LangGraph вместо старых агентов LangChain: меньше риск миграции, проще контроль оркестрации.
  • Разделение сервисов: ядро MCP и Telegram-бот вынесены в разные контейнеры.
  • Безопасность: токен и список разрешённых пользователей задаются только в .env на сервере.