Ollama_MCP_Guidance

ShadovvSinger/Ollama_MCP_Guidance

3.1

If you are the rightful owner of Ollama_MCP_Guidance and would like to certify it and/or have it hosted online, please leave a comment on the right or send an email to henry@mcphub.com.

基于 MCP (Model Context Protocol) 的 Ollama API 交互服务,提供标准化接口与 Ollama 服务交互。

Ollama MCP Guidance 是一个基于 Model Context Protocol (MCP) 的 API 交互服务,专为在 Cursor IDE 中使用而设计。该项目提供了一个标准化的接口,用于与 Ollama 服务进行交互,并为 LLM 提供智能化的 API 调用指导。项目目前处于开发阶段,尚未实现 Ollama 的所有 API 端点。文档和注释采用中英双语,未来将统一为英文,并提供中文文档备份。项目支持标准化的 JSON 响应格式,完整的错误处理和状态反馈,详细的性能指标统计,简单的配置管理,以及内置的 API 文档导航。

Features

  • 标准化的 JSON 响应格式
  • 完整的错误处理和状态反馈
  • 详细的性能指标统计
  • 简单的配置管理
  • 内置的 API 文档导航

Usages

usage with cursor

{
  "mcpServers": {
    "ollama": {
      "command": "/完整路径/ollama-mcp-cli"
    }
  }
}

Tools

  1. get_started_guide

    Project Beginner Guide to Help LLM to get a comprehensive understanding of the project

  2. get_ollama_version

    Get the Ollama server version

  3. get_ollama_list

    Get the list of installed models

  4. get_running_models

    View running models

  5. post_show_model

    Get model details

  6. simple_chat

    Conversational interaction function

  7. simple_generate

    Basic text generation

  8. post_generate_embeddings

    Generate text vector representation