本镜像基于deepseek-ai/DeepSeek-R1-0528-Qwen3-8B模型构建,通过蒸馏DeepSeek-R1-0528的思维链(***of-Thought)对Qwen3 8B Base模型进行后训练,显著提升了模型在数学推理、代码生成及复杂逻辑任务上的性能。该模型架构与Qwen3-8B一致,但采用DeepSeek-R1-0528的分词器配置,在开源模型中表现出state-of-the-art(SOTA)水平,尤其在AIME 2024等数学基准测试中超越原版Qwen3 8B达10.0%,可媲美Qwen3-235B-thinking的性能。
transformers库构建,兼容Qwen3-8B模型架构官方推荐系统提示模板,需包含当前日期:
该助手为DeepSeek-R1,由深度求索公司创造。 今天是{current date}。
示例:
该助手为DeepSeek-R1,由深度求索公司创造。 今天是2025年5月28日,星期一。
[file name]: {file_name} [file content begin] {file_content} [file content end] {question}
其中{file_name}为文件名,{file_content}为文件内容,{question}为用户问题。
# 以下内容是基于用户发送的消息的搜索结果: {search_results} 在我给你的搜索结果中,每个结果都是[webpage X begin]...[webpage X end]格式的,X代表每篇文章的数字索引。请在适当的情况下在句子末尾引用上下文。请按照引用编号[citation:X]的格式在答案中对应部分引用上下文。如果一句话源自多个上下文,请列出所有相关的引用编号,例如[citation:3][citation:5],切记不要将引用集中在最后返回引用编号,而是在答案对应部分列出。 在回答时,请注意以下几点: - 今天是{cur_date}。 - 并非搜索结果的所有内容都与用户的问题密切相关,你需要结合问题,对搜索结果进行甄别、筛选。 - 对于列举类的问题(如列举所有航班信息),尽量将答案控制在10个要点以内,并告诉用户可以查看搜索来源、获得完整信息。优先提供信息完整、最相关的列举项;如非必要,不要主动告诉用户搜索结果未提供的内容。 - 对于创作类的问题(如写论文),请务必在正文的段落中引用对应的参考编号,例如[citation:3][citation:5],不能只在文章末尾引用。你需要解读并概括用户的题目要求,选择合适的格式,充分利用搜索结果并抽取重要信息,生成符合用户要求、极具思想深度、富有创造力与专业性的答案。你的创作篇幅需要尽可能延长,对于每一个要点的论述要推测用户的意图,给出尽可能多角度的回答要点,且务必信息量大、论述详尽。 - 如果回答很长,请尽量结构化、分段落总结。如果需要分点作答,尽量控制在5个点以内,并合并相关的内容。 - 对于客观类的问答,如果问题的答案非常简短,可以适当补充一到两句相关信息,以丰富内容。 - 你需要根据用户要求和回答内容选择合适、美观的回答格式,确保可读性强。 - 你的回答应该综合多个相关网页来回答,不能重复引用一个网页。 - 除非用户要求,否则你回答的语言需要和用户提问的语言保持一致。 # 用户消息为: {question}
(注:英文搜索提示模板类似,将语言相关描述调整为英文即可)
基本运行命令
bashdocker run -it --gpus all -p 8000:8000 \ -e MODEL_PATH=/app/model \ -v /path/to/local/model:/app/model \ deepseek-r1-0528-qwen3-8b:latest \ python -m transformers.run --model_name_or_path /app/model --temperature 0.6 --top_p 0.95
Docker Compose配置
yamlversion: '3' services: deepseek-r1: image: deepseek-r1-0528-qwen3-8b:latest ports: - "8000:8000" volumes: - /path/to/local/model:/app/model environment: - MODEL_PATH=/app/model - TEMPERATURE=0.6 - TOP_P=0.95 deploy: resources: reservations: devices: - driver: nvidia count: all capabilities: [gpu]
本镜像基于MIT许可证开源,支持商业使用与模型蒸馏。详细许可条款见MIT License。
@misc{deepseekai2025deepseekr1incentivizingreasoningcapability, title={DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning}, author={DeepSeek-AI}, year={2025}, eprint={2501.12948}, archivePrefix={arXiv}, primaryClass={cs.CL}, url={https://arxiv.org/abs/2501.12948}, }
您可以使用以下命令拉取该镜像。请将 <标签> 替换为具体的标签版本。如需查看所有可用标签版本,请访问 标签列表页面。






探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录认证访问私有仓库
无需登录使用专属域名
Kubernetes 集群配置 Containerd
K3s 轻量级 Kubernetes 镜像加速
VS Code Dev Containers 配置
Podman 容器引擎配置
HPC 科学计算容器配置
ghcr、Quay、nvcr 等镜像仓库
Harbor Proxy Repository 对接专属域名
Portainer Registries 加速拉取
Nexus3 Docker Proxy 内网缓存
需要其他帮助?请查看我们的 常见问题Docker 镜像访问常见问题解答 或 提交工单
docker search 限制
站内搜不到镜像
离线 save/load
插件要用 plugin install
WSL 拉取慢
安全与 digest
新手拉取配置
镜像合规机制
manifest unknown
no matching manifest(架构)
invalid tar header(解压)
TLS 证书失败
DNS 超时
域名连通性排查
410 Gone 排查
402 与流量用尽
401 认证失败
429 限流
D-Bus 凭证提示
413 与超大单层
来自真实用户的反馈,见证轩辕镜像的优质服务