fm-mcp-comfyui-bridge
If you are the rightful owner of fm-mcp-comfyui-bridge and would like to certify it and/or have it hosted online, please leave a comment on the right or send an email to henry@mcphub.com.
fm-mcp-comfyui-bridge is an MCP server implementation for accessing ComfyUI, providing image generation features through integration with ComfyUI's API.
fm-mcp-comfyui-bridge
ComfyUIにアクセスするためのMCPサーバー実装です。ComfyUI の API との連携を行い、画像生成機能を提供します。
🌟 機能
- 🖼️ ComfyUIを利用した画像生成機能
- 📝 生成画像のキャプション生成機能
- 🏷️ 生成画像のタグ解析機能
- 🔄 uvによる簡単なセットアップと起動
- 🌐 MCPサーバーとしてAPIエンドポイントを提供
🔧 要件
- Python 3.13以上
- ローカルで動作するComfyUI(デフォルト: http://localhost:8188)
- uv パッケージマネージャ
- ローカルで動作する ollama と画像認識ができる vision model
📥 インストール
uv がインストールされた環境を用意してください。
uvを使用したインストール
# リポジトリをクローン
git clone https://github.com/rerofumi/fm-mcp-comfyui-bridge.git
cd fm-mcp-comfyui-bridge
# uvを使用して依存関係をインストール
uv pip install -e .
ComfyUI の workflow が動作するか確認
src\fm_mcp_comfyui_bridge\config\workflow\
下にある json ファイルを ComfyUI に読み込ませて、ノードエラーになっていないことを確認。
足りないカスタムノードとかあったらインストールしておいてください。
🚀 使用方法
MCPサーバーとして設定
利用するエージェントツールのMCP設定に以下のように設定してください
{
"mcpServers": {
"fm-mcp-comfyui-bridge": {
"command": "uv",
"args": [
"--directory",
"(インストールしたディレクトリ)/fm-mcp-comfyui-bridge",
"run",
"fm-mcp-comfyui-bridge"
],
}
}
}
ComfyUIのエンドポイント設定
デフォルトでは、ComfyUIのエンドポイントは http://localhost:8188
に設定されています。必要に応じて main.py
内の設定を変更してください。
Loraの設定
画像生成に使用するモデル設定ファイルを作成する必要があります。以下の手順で設定を行ってください:
-
サンプル設定ファイルをコピーします:
cp src/fm_mcp_comfyui_bridge/config/sample_config.yaml src/fm_mcp_comfyui_bridge/config/config.yaml
-
コピーした
config.yaml
ファイルを編集して、使用するモデル名を設定します:checkpoint: (使いたいチェックポイントモデル名).safetensors image-size: height: 1024 width: 1024 lora: - enabled: false model: (使いたいLoRAモデル名).safetensors strength: 1.0 trigger: sampling: cfg: 5 steps: 24 vpred: true
-
設定項目の説明:
checkpoint
: 使用する基本モデルのファイル名(例:animagine-xl-3.0.safetensors
)image-size
: 生成する画像のサイズ設定lora
: LoRAモデルの設定enabled
: LoRAを有効にするかどうか(true
またはfalse
)model
: 使用するLoRAモデルのファイル名strength
: LoRAの適用強度(0.0〜1.0)trigger
: LoRAのトリガーワード
sampling
: サンプリング設定cfg
: CFGスケール値steps
: 生成ステップ数
vpred
: v-predictionを使用するかどうか
モデルファイルはComfyUIの適切なディレクトリに配置されている必要があります。
ollamaの設定
生成された画像のキャプションを取得するために ollama で使用する vision モデル設定ファイルを作成する必要があります。以下の手順で設定を行ってください:
ollama.yaml
を編集する
vision_model
: 画像解析でキャプションを生成する ollama の vision 対応モデル名
利用可能なツール
-
generate_picture - プロンプトに基づいて画像を生成
@mcp.tool() def generate_picture(prompt: str) -> str: """生成したいプロンプトを渡すことで画像生成を依頼し、生成された image の url を返す"""
-
get_picture - 指定された画像のPNGバイナリデータを取得
@mcp.tool() def get_picture(subfolder: str, filename: str) -> Image: """subfolder と filename を指定して画像の PNG バイナリを取得する"""
-
get_caption - 画像のキャプションをテキスト形式で取得
@mcp.tool() def get_caption(subfolder: str, filename: str) -> str: """subfolder と filename を指定して生成した画像のキャプションをテキスト形式で取得する"""
-
get_tag - 画像からWD1.4タグを解析して取得
@mcp.tool() def get_tag(subfolder: str, filename: str) -> str: """subfolder と filename を指定して生成した画像からWD1.4タグを解析してテキスト形式で取得する"""
custom workflow の利用
src\fm_mcp_comfyui_bridge\config\workflow\
の下に API 形式の workflow ファイルを置いて、カスタムワークフローとして実行することができます。
src\fm_mcp_comfyui_bridge\config\custom.yaml
が存在していたらカスタムワークフローとして実行されます。
存在しない場合はデフォルトのワークフローが実行されます。
example/
ディレクトリにサンプルのカスタムワークフローファイルを置いています。
config の下にコピーして動作を試してください。Flux1-dev で画像生成を行うサンプルとなっています。
カスタムワークフローについての詳細は [README_custom_workflow.md] を参照してください。
サンプルプロンプト
"1girl, cute cat ear maid" で画像を生成してください
画像生成後
画像のキャプションを表示
WD14タグを表示
画像生成のプロンプトが以下に添付されています。
まずはユーザーがこのプロンプトでどんな絵を描かせようとしているかを分析してください。
ユーザーの意図に対しプロンプトが不向き、もしくはより良い表現がある場合は意図を崩さない範囲で修正を加えて構いません。
ユーザーが与えたプロンプトを comfyui MCP を使って画像にしてください、comfyui に与える prompt は英語しか受け付けないのでプロンプトは必ず英語、それもできるだけ danbooru tag に翻訳して generate を依頼してください。generate の実行結果として返る文字列はURLです、生成の結果としてその URL を以下の markdown フォーマットで表示してください。

danbooru tag におけるクオリティタグは以下です、頭に必ず追加するようにしてください。
"masterpiece, best quality, newest,"
生成されたリンクは画像ファイルへのリンクです。リンクのパラメータにある subfolder と filename を使って comfyui MCP の get_caption と get_tag 両方を取得して、画像に何が映っていたかを確認してください。それらキャプション&タグ情報と目指しているプロンプトを分析し異なっていたら、元のプロンプトの意図へ近づけるよう、より良いプロンプトになるよう編集し、画像生成を繰り返してください。プロンプトで指示してもその単語が認識されないことがあります。一つの表現に固執するのではなく、目指しているものを別の表現で実現することを目指してみてください。
最大で 8回繰り返しながらより良いプロンプトを構築していきます。
## prompt
女の子と猫とリビング。窓から暖かい春の日差しが差し込んでいて、その暖かい光を受けて猫と女の子が居眠りをしている。部屋はフローリングだが、ラグとクッションがあり、そのクッションを枕にしている。寝る女の子の頭に猫がすり寄っていて、仲がよさそう。穏やかな日常の風景。
APIリソース
@mcp.resource("info://about")
def get_info() -> str:
"""サーバー情報"""
@mcp.resource("help://tools")
def get_tools_help() -> str:
"""ツールのヘルプ"""
@mcp.resource("docs://{topic}")
def get_documents(topic: str) -> str:
"""tool のドキュメント"""
📚 依存関係
主な依存関係は以下の通りです:
mcp[cli]>=1.6.0
- MCPサーバーフレームワークrequests>=2.32.3
- HTTPリクエスト処理huggingface-hub>=0.25.2
- Hugging Faceモデルリポジトリアクセスnumpy>=2.1.2
- 数値計算ライブラリollama>=0.3.3
- ローカルLLMサポートonnxruntime>=1.19.2
- ONNXモデル実行環境pandas>=2.2.3
- データ分析ライブラリ
📄 ライセンス
このプロジェクトはMITライセンスの下で公開されています。詳細についてはファイルを参照してください。
👤 作者
- rerofumi - GitHub -
*WD1.4タグ解析部分は SmilingWolf 氏作成の wd-tagger のソースコードとモデルデータを使用しています。モデルデータは初回実行時にダウンロードされます。