{"openapi":"3.1.0","info":{"title":"Ollama CLI","description":"로컬 환경에서 LLM을 실행하는 CLI로 Llama, Mistral, Gemma 등 오픈소스 모델을 쉽게 다운로드·실행합니다. ollama run으로 모델과 대화하고 ollama serve로 API 서버를 실행하며 GPU 가속을 자동 활용합니다.","version":"1.0.0","x-fusepie-id":"cli-ollama","x-fusepie-category":"ai","x-fusepie-provider":"Ollama"},"servers":[{"url":"brew install ollama","description":"Production"}],"paths":{"/":{"get":{"operationId":"call_cli_ollama","summary":"Ollama CLI","description":"로컬 환경에서 LLM을 실행하는 CLI로 Llama, Mistral, Gemma 등 오픈소스 모델을 쉽게 다운로드·실행합니다. ollama run으로 모델과 대화하고 ollama serve로 API 서버를 실행하며 GPU 가속을 자동 활용합니다.","parameters":[{"name":"q","in":"query","description":"Search query or main parameter","required":false,"schema":{"type":"string"}}],"responses":{"200":{"description":"Success","content":{"application/json":{"schema":{"type":"object"}}}}}}}},"x-mcp-config":{"mcpServers":{"cli-ollama":{"command":"npx","args":["-y","@fusepie/mcp-cli-ollama"],"env":{}}}}}