LLaMA-Factory官方Docker镜像是由开源大模型微调平台LLaMA-Factory提供的官方容器化部署包,旨在为开发者和研究者提供便捷、高效的大模型微调与应用环境,支持多种主流大模型及训练方法,可简化部署流程,实现快速环境搭建与管理,助力用户轻松开展大模型微调、评估及应用开发工作。
收藏数: 11
下载次数: 111067
类型:

hiyouga/llamafactory这是 LLaMA-Factory 的官方 Docker 镜像,旨在简化 LLaMA-Factory 的环境配置流程。LLaMA-Factory 是一个功能全面的大模型微调/推理工具(项目地址:[***]),而该镜像已预装所有依赖组件,可帮助用户跳过复杂的环境配置步骤,直接上手模型微调、推理、评估等核心任务。
首先确保本地已安装 Docker,然后通过以下命令拉取最新版镜像:
bashdocker pull hiyouga/llama-factory:latest
(如需指定版本,可替换 latest 为具体标签,如 v0.9.0,标签列表可在项目 GitHub 查看)
启动容器时,建议挂载本地目录以持久化数据(如模型文件、微调数据、输出结果等),并映射必要端口(如需使用 Web UI)。
示例命令(基础用法):
bashdocker run -it --rm \ -v /path/to/your/data:/app/data # 挂载本地数据目录到容器内 /app/data -p 7860:7860 # 映射 Web UI 端口(如使用 gradio 界面) hiyouga/llama-factory:latest
-v /path/to/your/data:/app/data:将本地的 /path/to/your/data 目录挂载到容器内的 /app/data,确保数据持久化(如存放模型、数据集)。-p 7860:7860:如需使用 Web UI,映射容器内的 7860 端口到本地,启动后可通过 `[***] 访问。--rm:容器退出后自动删除,如需保留容器,可去掉此参数。容器启动后,会自动进入 LLaMA-Factory 的工作目录(/app),此时可直接运行相关命令:
python src/train_bash.py --config configs/train/llama2/llama2-7b-sft.yamlpython src/webui.pypython src/cli_demo.py --model_path /app/data/llama-2-7b --load_in_4bit-v 参数挂载,否则容器内数据会在退出后丢失。docker pull hiyouga/llama-factory:latest 更新镜像,获取最新功能和依赖修复。以下是 hiyouga/llamafactory 相关的常用 Docker 镜像,适用于 不同场景 等不同场景:
您可以使用以下命令拉取该镜像。请将 <标签> 替换为具体的标签版本。如需查看所有可用标签版本,请访问 版本下载页面。


manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务