专属域名
文档搜索
轩辕助手
Run助手
邀请有礼
返回顶部
快速返回页面顶部
收起
收起工具栏
轩辕镜像 官方专业版
轩辕镜像 官方专业版轩辕镜像 官方专业版官方专业版
首页个人中心搜索镜像

交易
充值流量我的订单
工具
提交工单镜像收录一键安装
Npm 源Pip 源Homebrew 源
帮助
常见问题
其他
关于我们网站地图

官方QQ群: 1072982923

intel/deep-learning Docker 镜像 - 轩辕镜像

deep-learning
intel/deep-learning
intel
AI Tools Preset Containers为数据科学家和开发者提供现成环境,用于数据分析、机器学习及深度学习,包含针对特定任务的Python工具和Intel架构优化库,但项目不再被Intel积极管理。
1 收藏0 次下载
💣 CI/CD 卡在拉镜像?问题不在代码,在镜像源
中文简介版本下载
💣 CI/CD 卡在拉镜像?问题不在代码,在镜像源

AI Tools Preset Containers 镜像文档

镜像概述和主要用途

注意:该项目不再被Intel积极管理(PROJECT NOT UNDER ACTIVE MANAGEMENT),此镜像仓库将不再由Intel维护。

AI Tools Preset Containers为数据科学家和开发者提供即用型环境,适用于数据分析、数据处理、机器学习及深度学习任务。每个容器均包含针对特定任务定制的Python包和工具,尤其针对Intel架构进行了优化,可提升在Intel处理器和GPU上的运行性能。

核心功能和特性

预设容器类型
预设容器名称用途包含工具镜像名称
经典机器学习借助针对Intel®架构优化的开源库,加速机器学习和数据科学流水线
  • Intel® Scikit-learn扩展*
  • Intel® XGBoost优化*
  • intel/classical-ml:latest-py3.11
    深度学习 PyTorch* CPU通过Intel® PyTorch扩展,提升在Intel® Xeon®处理器上的深度学习工作负载性能、减小模型大小并加快部署速度
  • Intel® PyTorch扩展
  • Intel® 神经压缩器
  • ONNX Runtime*
  • intel/deep-learning:pytorch-latest-py3.11
    深度学习 PyTorch* GPU通过Intel® PyTorch扩展,提升在Intel® 数据中心GPU Max系列上的深度学习工作负载性能、减小模型大小并加快部署速度
  • Intel® PyTorch扩展
  • Intel® 神经压缩器
  • DeepSpeed*
  • intel/deep-learning:pytorch-gpu-latest-py3.11
    深度学习 JAX* CPU通过JAX*提升在Intel® Xeon®处理器上的深度学习部署速度并减小模型大小
  • JAX*
  • intel/deep-learning:jax-latest-py3.11

    使用场景和适用范围

    • 数据科学家:快速搭建机器学习模型开发和训练环境,利用Intel优化库提升训练效率
    • AI开发者:部署深度学习模型,借助Intel扩展工具优化模型性能和部署速度
    • 研究人员:在Intel架构硬件上进行高效的数据分析、模型实验和性能评估

    使用方法和配置说明

    前提条件
    1. 安装Docker引擎:确保主机已安装Docker,可参考Docker官方安装指南。

    2. 拉取预设容器:从AI Tools Selector或上述表格中选择容器并拉取。以下示例以“深度学习PyTorch* CPU”预设为例:

    bash
    docker pull intel/deep-learning:pytorch-latest-py311
    
    运行预设容器

    容器支持三种运行模式:

    • Jupyter Notebook模式
    • 交互式模式
    • 多节点分布式训练模式(高级)(仅适用于深度学习PyTorch GPU容器)

    注意:根据实际需求修改以下命令中的镜像名称、环境变量和GPU设备路径。

    Jupyter Notebook模式

    此模式启动JupyterLab笔记本服务器,可通过浏览器访问。容器内置Jupyter内核以支持conda环境,默认暴露8888端口。

    注意:默认情况下,Docker使用bridge网络。若需从远程机器通过SSH访问服务器,需添加--net=host标志并配置本地端口转发(ssh -L 8888:8888)。

    CPU环境运行

    bash
    docker run -it --rm \
        -p 8888:8888 --shm-size=12G \
        -v ${PWD}:/home/dev/workdir \
        intel/deep-learning:pytorch-latest-py3.11
    

    注意:多线程应用可能需要更大的共享内存。Docker默认共享内存为64MB,可通过--shm-size参数调整(如示例中的12G)。

    GPU环境运行

    首先获取系统的RENDER和VIDEO组ID以启用Intel®数据中心GPU Flex/Max系列:

    bash
    RENDER=$(getent group render | sed -E 's,^render:[^:]*:([^:]*):.*$,\1,')
    VIDEO=$(getent group video | sed -E 's,^video:[^:]*:([^:]*):.*$,\1,')
    test -z "$RENDER" || RENDER_GROUP="--group-add ${RENDER}"
    test -z "$VIDEO" || VIDEO_GROUP="--group-add ${VIDEO}"
    

    然后运行容器:

    bash
    docker run -it --rm \
        ${RENDER_GROUP} \
        ${VIDEO_GROUP} \
        --device=/dev/dri \
        -p 8888:8888  --shm-size=12G \
        -v ${PWD}:/home/dev/workdir \
        -v /dev/dri/by-path:/dev/dri/by-path \
        intel/deep-learning:pytorch-gpu-latest-py3.11
    

    后续步骤

    1. 容器启动后,终端会显示Jupyter服务器地址(如[***])和登录token,通过浏览器访问该地址并使用token登录。

    2. 在服务器目录中选择示例笔记本,例如intel/deep-learning:pytorch-latest-py3.11容器包含Deep_Learning_Samples_Overview.ipynb。

    3. 加载笔记本时,从下拉菜单选择对应内核:classical-ml(经典机器学习)、jax-cpu(JAX CPU)、pytorch-cpu(PyTorch CPU)或pytorch-gpu(PyTorch GPU)。

    Jupyter服务器高级配置

    可通过以下命令自定义Jupyter服务器配置(如端口、IP、权限),附加到上述docker run命令后:

    bash
    bash -c "jupyter notebook --notebook-dir=~/jupyter \
            --port 8888 \
            --ip 0.0.0.0 \
            --no-browser \
            --allow-root"
    
    交互式模式

    此模式提供交互式bash shell,可直接操作容器环境。

    CPU环境运行

    bash
    docker run -it --rm \
        -p 8888:8888 --shm-size=12G \
        -v ${PWD}:/home/dev/workdir \
        intel/deep-learning:pytorch-latest-py3.11 bash
    

    GPU环境运行

    首先获取RENDER和VIDEO组ID(同GPU Jupyter模式),然后运行:

    bash
    docker run -it --rm \
        ${RENDER_GROUP} \
        ${VIDEO_GROUP} \
        --device=/dev/dri \
        -p 8888:8888 --shm-size=12G \
        -v ${PWD}:/home/dev/workdir \
        -v /dev/dri/by-path:/dev/dri/by-path \
        intel/deep-learning:pytorch-gpu-latest-py3.11 bash
    

    注意:多线程应用需通过--shm-size调整共享内存大小(默认64MB可能不足)。

    后续步骤

    1. 激活对应环境内核:

      bash
      # 示例:激活PyTorch CPU环境
      conda activate pytorch-cpu
      
    2. 运行sample-tests目录中的示例测试:

      bash
      python sample-tests/intel_extension_for_pytorch/test_ipex.py
      

      (test_ipex.py脚本使用预训练ResNet-50模型进行图像分类,支持CPU/XPU运行,可通过Intel® PyTorch扩展优化性能,输出100次推理的平均时间。)

    注意:sample-tests目录内容因容器类型而异,部分测试可能使用bash脚本。

    多节点分布式训练模式(高级)

    仅适用于“深度学习PyTorch GPU”容器,详细步骤参考Intel® PyTorch扩展文档。

    故障排除和支持

    若使用容器时遇到问题,可参考故障排除部分。如需进一步帮助,可提交issue。


    *其他名称和品牌可能是其各自所有者的财产。商标信息

    查看更多 deep-learning 相关镜像 →
    intel/intel-gpu-plugin logo
    intel/intel-gpu-plugin
    Intel GPU设备插件是一款为Kubernetes集群开发的组件,旨在实现对Intel GPU资源的识别、管理与高效调度,支持部署GPU加速的工作负载,包括AI模型训练、高性能计算、数据分析等任务,并通过优化资源分配和实时监控,提升集群中GPU资源的利用率及相关工作负载的运行效率。
    1510M+ pulls
    上次更新:未知
    intel/intel-gpu-initcontainer logo
    intel/intel-gpu-initcontainer
    暂无描述
    310M+ pulls
    上次更新:未知
    intel/power-node-agent logo
    intel/power-node-agent
    Power Node Agent designed to utilize Intel specific power management technologies in Kubernetes
    1M+ pulls
    上次更新:未知
    intel/oneapi-basekit logo
    intel/oneapi-basekit
    Intel® oneAPI Base Toolkit Docker镜像提供跨架构编程工具与库,支持高性能计算、数据分析等领域应用开发,助力构建高效异构计算解决方案。
    22100K+ pulls
    上次更新:未知
    intel/intel-qat-plugin logo
    intel/intel-qat-plugin
    英特尔QuickAssist Technology (QAT)的Kubernetes设备插件,用于在Kubernetes集群中暴露QAT硬件加速功能,以提升加密、压缩等任务的处理性能。
    2100K+ pulls
    上次更新:未知
    intel/oneapi-hpckit logo
    intel/oneapi-hpckit
    英特尔® oneAPI 高性能计算工具包是集成编译器、数学库及并行编程工具的开发套件,用于构建和优化跨架构高性能计算应用,具备针对Intel架构的深度优化能力。
    21100K+ pulls
    上次更新:未知

    轩辕镜像配置手册

    探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

    登录仓库拉取

    通过 Docker 登录认证访问私有仓库

    Linux

    在 Linux 系统配置镜像服务

    Windows/Mac

    在 Docker Desktop 配置镜像

    Docker Compose

    Docker Compose 项目配置

    K8s Containerd

    Kubernetes 集群配置 Containerd

    K3s

    K3s 轻量级 Kubernetes 镜像加速

    Dev Containers

    VS Code Dev Containers 配置

    MacOS OrbStack

    MacOS OrbStack 容器配置

    宝塔面板

    在宝塔面板一键配置镜像

    群晖

    Synology 群晖 NAS 配置

    飞牛

    飞牛 fnOS 系统配置镜像

    极空间

    极空间 NAS 系统配置服务

    爱快路由

    爱快 iKuai 路由系统配置

    绿联

    绿联 NAS 系统配置镜像

    威联通

    QNAP 威联通 NAS 配置

    Podman

    Podman 容器引擎配置

    Singularity/Apptainer

    HPC 科学计算容器配置

    其他仓库配置

    ghcr、Quay、nvcr 等镜像仓库

    专属域名拉取

    无需登录使用专属域名

    需要其他帮助?请查看我们的 常见问题Docker 镜像访问常见问题解答 或 提交工单

    镜像拉取常见问题

    轩辕镜像免费版与专业版有什么区别?

    免费版仅支持 Docker Hub 访问,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

    轩辕镜像支持哪些镜像仓库?

    专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等;免费版仅支持 docker.io。

    流量耗尽错误提示

    当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

    410 错误问题

    通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

    manifest unknown 错误

    先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

    镜像拉取成功后,如何去掉轩辕镜像域名前缀?

    使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

    查看全部问题→

    用户好评

    来自真实用户的反馈,见证轩辕镜像的优质服务

    用户头像

    oldzhang

    运维工程师

    Linux服务器

    5

    "Docker访问体验非常流畅,大镜像也能快速完成下载。"

    轩辕镜像
    镜像详情
    ...
    intel/deep-learning
    官方博客Docker 镜像使用技巧与技术博客
    热门镜像查看热门 Docker 镜像推荐
    一键安装一键安装 Docker 并配置镜像源
    咨询镜像拉取问题请 提交工单,官方技术交流群:1072982923
    轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
    咨询镜像拉取问题请提交工单,官方技术交流群:
    轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
    官方邮箱:点击复制邮箱
    ©2024-2026 源码跳动
    官方邮箱:点击复制邮箱Copyright © 2024-2026 杭州源码跳动科技有限公司. All rights reserved.