
这是 LLaMA-Factory 的官方 Docker 镜像,旨在简化 LLaMA-Factory 的环境配置流程。LLaMA-Factory 是一个功能全面的大模型微调/推理工具(项目地址:[***]),而该镜像已预装所有依赖组件,可帮助用户跳过复杂的环境配置步骤,直接上手模型微调、推理、评估等核心任务。
首先确保本地已安装 Docker,然后通过以下命令拉取最新版镜像:
bashdocker pull hiyouga/llama-factory:latest
(如需指定版本,可替换 latest 为具体标签,如 v0.9.0,标签列表可在项目 GitHub 查看)
启动容器时,建议挂载本地目录以持久化数据(如模型文件、微调数据、输出结果等),并映射必要端口(如需使用 Web UI)。
示例命令(基础用法):
bashdocker run -it --rm \ -v /path/to/your/data:/app/data # 挂载本地数据目录到容器内 /app/data -p 7860:7860 # 映射 Web UI 端口(如使用 gradio 界面) hiyouga/llama-factory:latest
-v /path/to/your/data:/app/data:将本地的 /path/to/your/data 目录挂载到容器内的 /app/data,确保数据持久化(如存放模型、数据集)。-p 7860:7860:如需使用 Web UI,映射容器内的 7860 端口到本地,启动后可通过 `[***] 访问。--rm:容器退出后自动删除,如需保留容器,可去掉此参数。容器启动后,会自动进入 LLaMA-Factory 的工作目录(/app),此时可直接运行相关命令:
python src/train_bash.py --config configs/train/llama2/llama2-7b-sft.yamlpython src/webui.pypython src/cli_demo.py --model_path /app/data/llama-2-7b --load_in_4bit-v 参数挂载,否则容器内数据会在退出后丢失。docker pull hiyouga/llama-factory:latest 更新镜像,获取最新功能和依赖修复。以下是 hiyouga/llamafactory 相关的常用 Docker 镜像,适用于 不同场景 等不同场景:
您可以使用以下命令拉取该镜像。请将 <标签> 替换为具体的标签版本。如需查看所有可用标签版本,请访问 版本下载页面。





探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录认证访问私有仓库
无需登录使用专属域名
Kubernetes 集群配置 Containerd
K3s 轻量级 Kubernetes 镜像加速
VS Code Dev Containers 配置
Podman 容器引擎配置
HPC 科学计算容器配置
ghcr、Quay、nvcr 等镜像仓库
Harbor Proxy Repository 对接专属域名
Portainer Registries 加速拉取
Nexus3 Docker Proxy 内网缓存
需要其他帮助?请查看我们的 常见问题Docker 镜像访问常见问题解答 或 提交工单
manifest unknown
no matching manifest(架构)
invalid tar header(解压)
TLS 证书失败
DNS 超时
410 Gone 排查
402 与流量用尽
401 认证失败
429 限流
D-Bus 凭证提示
413 与超大单层
来自真实用户的反馈,见证轩辕镜像的优质服务