ShadovvSinger/Ollama_MCP_Guidance
If you are the rightful owner of Ollama_MCP_Guidance and would like to certify it and/or have it hosted online, please leave a comment on the right or send an email to henry@mcphub.com.
基于 MCP (Model Context Protocol) 的 Ollama API 交互服务,提供标准化接口与 Ollama 服务交互。
Ollama MCP Guidance 是一个基于 Model Context Protocol (MCP) 的 API 交互服务,专为在 Cursor IDE 中使用而设计。该项目提供了一个标准化的接口,用于与 Ollama 服务进行交互,并为 LLM 提供智能化的 API 调用指导。项目目前处于开发阶段,尚未实现 Ollama 的所有 API 端点。文档和注释采用中英双语,未来将统一为英文,并提供中文文档备份。项目支持标准化的 JSON 响应格式,完整的错误处理和状态反馈,详细的性能指标统计,简单的配置管理,以及内置的 API 文档导航。
Features
- 标准化的 JSON 响应格式
- 完整的错误处理和状态反馈
- 详细的性能指标统计
- 简单的配置管理
- 内置的 API 文档导航
Usages
usage with cursor
{ "mcpServers": { "ollama": { "command": "/完整路径/ollama-mcp-cli" } } }
Tools
get_started_guide
Project Beginner Guide to Help LLM to get a comprehensive understanding of the project
get_ollama_version
Get the Ollama server version
get_ollama_list
Get the list of installed models
get_running_models
View running models
post_show_model
Get model details
simple_chat
Conversational interaction function
simple_generate
Basic text generation
post_generate_embeddings
Generate text vector representation