diphyx/ollamaOllama 是一个用于在自托管基础设施上部署大型语言模型(LLM)的Docker镜像,提供直观的Web UI,方便用户管理和使用语言模型。
使用以下命令快速启动Ollama容器:
bashdocker run -it --rm --name ollama -p 8080:8080 diphyx/ollama:latest
以下是使用Docker Compose部署的示例配置:
yamlname: ollama services: instance: image: diphyx/ollama:latest environment: - STARTUP_MODEL=smollm2:135m # 启动模型,默认smollm2:135m - DXF_PROXY_PREFIX={{ CONTAINER_ID }} - DXF_PROXY_MAIN_PORT=8080 volumes: - /volume:/volume # 数据持久化卷
| 参数名 | 说明 | 默认值 | 是否必填 |
|---|---|---|---|
| STARTUP_MODEL | 启动时加载的Ollama Hub模型 | smollm2:135m | 是 |
| DXF_PROXY_PREFIX | 代理前缀 | {{ CONTAINER_ID }} | 否 |
| DXF_PROXY_MAIN_PORT | 主端口号 | 8080 | 否 |
| 模型标签 | 模型值 | 大小提示 |
|---|---|---|
| Qwen 2.5 [0.5b] | qwen2.5:0.5b | 398MB |
| Qwen 2.5 [1.5b] | qwen2.5:1.5b | 986MB |
| Bge Large [335m] | bge-large:335m | 671MB |
| Reader LM [0.5b] | reader-lm:0.5b | 352MB |
| Reader LM [1.5b] | reader-lm:1.5b | 935MB |
| Stable LM Zephyr [3b] | stablelm-zephyr:3b | 1.6GB |
| Yi Coder [1.5b] | yi-coder:1.5b | 866MB |
| Granite 3.1 Dense [2b] | granite3.1-dense:2b | 1.6GB |
| Intern LM 2.5 [1.8b] | internlm2:1.8b | 1.1GB |
| Falcon 3 [1b] | falcon3:1b | 1.8GB |
| Tiny Llama [1.1b] | tinyllama:1.1b | 638MB |
| Smol LM 2 [135m] | smollm2:135m | 271MB |
| 参数名 | 说明 | 默认值 | 是否必填 |
|---|---|---|---|
| VOLUME | 数据存储路径,需以/volume开头 | /volume | 是 |





manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务