
shinejh0528/ollama本镜像基于 ollama/ollama 构建,集成了 fastAPI 服务器,主要用途是允许外部系统释放由 Ollama 占用的 GPU 内存,同时提供标准的 Ollama 服务和便捷的管理接口。
适用于需要运行Ollama模型且需管理GPU资源的场景,特别是在多模型交替运行或资源受限环境中,可通过外部系统调用API释放不再使用的模型内存,优化GPU资源利用率。
通过以下命令启动容器,需指定GPU资源、数据卷挂载和端口映射:
bashdocker run -itd --gpus=all -v [本地数据路径]:/root/.ollama -p ***:*** -p 5000:5000 --name ollama shinejh0528/ollama:1.0.0
参数说明:
--gpus=all:启用所有GPU资源(Ollama模型运行依赖)-v [本地数据路径]:/root/.ollama:挂载本地目录到容器内Ollama数据目录,实现数据持久化(请将[本地数据路径]替换为实际本地路径)-p ***:***:映射Ollama服务端口-p 5000:5000:映射fastAPI管理接口端口--name ollama:指定容器名称为"ollama"通过fastAPI接口停止指定模型,释放其占用的GPU内存:
请求命令:
bashcurl -X POST http://localhost:5000/stop -H "Content-Type: application/json" -d '{"model":"[模型名称]"}'
参数说明:
[模型名称]:需停止的Ollama模型名称(如gemma3:latest)成功响应示例:
bash{"message":"Model 'gemma3:latest' stopped successfully.","output":""}
响应说明:
message:操作结果描述output:命令执行输出(通常为空)




manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务