轩辕镜像
轩辕镜像专业版
个人中心搜索镜像
交易
充值流量我的订单
工具
工单支持镜像收录Run 助手IP 归属地密码生成Npm 源Pip 源
帮助
常见问题我要吐槽
其他
关于我们网站地图

官方QQ群: 13763429

轩辕镜像
镜像详情
rocm/composable_kernel
官方博客使用教程热门镜像工单支持
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。
所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。
轩辕镜像 - 国内开发者首选的专业 Docker 镜像下载加速服务平台 - 官方QQ群:13763429 👈点击免费获得技术支持。
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。

本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

composable_kernel Docker 镜像下载 - 轩辕镜像

composable_kernel 镜像详细信息和使用指南

composable_kernel 镜像标签列表和版本信息

composable_kernel 镜像拉取命令和加速下载

composable_kernel 镜像使用说明和配置指南

Docker 镜像加速服务 - 轩辕镜像平台

国内开发者首选的 Docker 镜像加速平台

极速拉取 Docker 镜像服务

相关 Docker 镜像推荐

热门 Docker 镜像下载

composable_kernel
rocm/composable_kernel

composable_kernel 镜像详细信息

composable_kernel 镜像标签列表

composable_kernel 镜像使用说明

composable_kernel 镜像拉取命令

Docker 镜像加速服务

轩辕镜像平台优势

镜像下载指南

相关 Docker 镜像推荐

Composable Kernel库的公共Docker镜像,提供便捷的容器化环境以支持该库的部署与使用。
1 收藏0 次下载activerocm镜像
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源
中文简介版本下载
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源

composable_kernel 镜像详细说明

composable_kernel 使用指南

composable_kernel 配置说明

composable_kernel 官方文档

Composable Kernel Docker镜像文档

1. 镜像概述和主要用途

Composable Kernel(简称CK)是一款高性能计算内核开发库,旨在为开发者提供模块化、可组合的构建块,用于构建针对多硬件架构(如NVIDIA GPU、AMD GPU等)优化的计算内核。该Docker镜像基于CK库构建,提供预配置的、一致的开发与运行环境,旨在简化依赖管理、消除环境差异,支持开发者快速上手CK库的使用、内核开发、测试及部署。

2. 核心功能和特性

2.1 预配置开发环境

  • 集成最新稳定版Composable Kernel库及其核心依赖(如CUDA Toolkit、ROCm SDK等,根据目标硬件架构适配)。
  • 包含完整编译工具链:GCC/Clang编译器、CMake构建系统、Ninja等。

2.2 多架构支持

  • 支持NVIDIA GPU环境(基于CUDA)和AMD GPU环境(基于ROCm),可通过镜像标签选择目标架构。
  • 兼容主流GPU驱动版本,确保硬件加速功能正常启用。

2.3 工具集成

  • 内置调试工具(如CUDA-GDB、ROCgdb)、性能分析工具(Nsight Systems、rocprof)及代码检查工具。
  • 包含CK库示例代码和文档,便于快速学***和验证。

2.4 环境一致性

  • 固定依赖版本,避免因系统环境差异导致的兼容性问题,确保开发、测试、部署流程的一致性。

3. 使用场景和适用范围

3.1 典型使用场景

  • HPC应用内核开发:构建针对科学计算、数值模拟的高性能自定义内核。
  • AI框架加速优化:为深度学***框架(如PyTorch、TensorFlow)开发定制化算子内核。
  • 跨架构内核移植:在不同GPU架构间验证和移植优化后的计算内核。
  • 教学与研究:作为高性能计算内核开发的教学环境,或用于硬件架构适配研究。

3.2 适用人群

  • 高性能计算(HPC)开发者
  • AI框架算子优化工程师
  • 硬件架构适配研究人员
  • 计算内核性能调优人员

4. 使用方法和配置说明

4.1 镜像拉取

Composable Kernel镜像托管于Docker Hub或GitHub Container Registry,可通过以下命令拉取:

# 拉取最新版(默认架构,如CUDA)
docker pull composablekernel:latest

# 拉取指定版本(如v1.2.0)
docker pull composablekernel:v1.2.0

# 拉取特定架构版本(如ROCm支持)
docker pull composablekernel:rocm-latest

镜像标签说明:

  • latest:最新稳定版,默认适配主流架构(如CUDA);
  • v<x.y.z>:指定CK版本(如v1.2.0);
  • cuda-<version>/rocm-<version>:指定底层计算栈版本(如cuda-12.1、rocm-5.6)。

4.2 容器运行

4.2.1 基础开发环境启动

# 启动交互式终端,挂载当前目录至容器内/workspace(用于代码持久化)
docker run -it --rm \
  --name ck-dev-env \
  -v $(pwd):/workspace \  # 挂载本地代码目录
  composablekernel:latest \
  /bin/bash

4.2.2 GPU硬件访问(必要时)

若需使用GPU加速,需在运行时添加硬件访问参数:

  • NVIDIA GPU(需安装nvidia-docker):

    docker run -it --rm \
      --gpus all \  # 映射所有GPU设备
      -v $(pwd):/workspace \
      composablekernel:cuda-12.1 \
      /bin/bash
    
  • AMD GPU(ROCm):

    docker run -it --rm \
      --device /dev/kfd \  # 访问AMD GPU设备
      --device /dev/dri \
      -v $(pwd):/workspace \
      composablekernel:rocm-5.6 \
      /bin/bash
    

4.3 环境变量配置

容器支持通过环境变量自定义运行时行为,常用变量如下:

环境变量名说明默认值
CK_VERSION指定容器内CK库版本(需镜像支持多版本)镜像内置版本
CMAKE_BUILD_TYPE编译类型(Release/Debug/RelWithDebInfo)Release
WORKSPACE工作目录路径/workspace
CUDA_HOMECUDA安装路径(CUDA镜像)/usr/local/cuda
ROCM_HOMEROCm安装路径(ROCm镜像)/opt/rocm

使用示例:指定Debug模式编译

docker run -it --rm \
  -e CMAKE_BUILD_TYPE=Debug \
  composablekernel:latest \
  /bin/bash

4.4 典型操作示例

4.4.1 编译CK示例代码

容器内默认包含CK示例代码(路径:/opt/composablekernel/examples),可直接编译验证环境:

# 进入容器后执行
cd /opt/composablekernel/examples/01_simple_gemm
mkdir build && cd build
cmake ..
make -j$(nproc)
# 运行编译后的示例(需GPU支持)
./simple_gemm

4.4.2 挂载本地代码开发

将本地CK项目挂载至容器,进行自定义内核开发:

# 本地主机执行(挂载当前项目目录至容器/workspace)
docker run -it --rm \
  --gpus all \
  -v $(pwd):/workspace \
  composablekernel:latest \
  /bin/bash

# 容器内编译本地代码
cd /workspace
mkdir build && cd build
cmake .. -DCMAKE_PREFIX_PATH=/opt/composablekernel
make -j$(nproc)

5. 部署方案示例

5.1 基础开发环境部署(docker run)

# 拉取并启动支持CUDA 12.1的CK开发环境,挂载代码目录并保留容器(--rm改为--name持久化)
docker run -it --name ck-dev-cuda12 \
  --gpus all \
  -v /path/to/local/code:/workspace \
  -v /path/to/datasets:/datasets \  # 挂载数据集
  composablekernel:cuda-12.1 \
  /bin/bash

5.2 持久化开发环境(docker-compose)

创建docker-compose.yml配置文件,定义持久化开发环境:

version: '3'
services:
  ck-dev:
    image: composablekernel:latest
    container_name: ck-dev-env
    runtime: nvidia  # NVIDIA GPU需添加(依赖nvidia-docker)
    environment:
      - CMAKE_BUILD_TYPE=Release
      - WORKSPACE=/workspace
    volumes:
      - ./local_code:/workspace  # 本地代码目录
      - ./datasets:/datasets    # 数据集目录
      - ./ck_cache:/root/.cache  # 缓存目录持久化
    tty: true  # 保持终端连接

启动服务:

docker-compose up -d  # 后台启动
docker-compose exec ck-dev /bin/bash  # 进入容器

6. 注意事项

  • 硬件兼容性:使用GPU时,需确保主机GPU驱动版本与镜像依赖的CUDA/ROCm版本匹配(如CUDA 12.1需驱动版本≥530.30.02)。
  • 镜像标签选择:根据目标硬件架构(NVIDIA/AMD)和依赖版本选择对应标签,避免架构不匹配导致功能异常。
  • 数据持久化:容器内数据默认非持久化,建议通过-v参数挂载本地目录保存代码、编译产物及数据。
  • 性能调优:进行内核性能测试时,建议为容器分配足够CPU资源(如--cpus参数)和内存,避免资源限制影响测试结果。
查看更多 composable_kernel 相关镜像 →

常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像免费版与专业版有分别支持哪些镜像?

免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

轩辕镜像下载加速使用手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

🔐

登录方式进行 Docker 镜像下载加速教程

通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤

🐧

Linux Docker 镜像下载加速教程

在 Linux 系统上配置轩辕镜像源,支持主流发行版

🖥️

Windows/Mac Docker 镜像下载加速教程

在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统

📦

Docker Compose 镜像下载加速教程

在 Docker Compose 中使用轩辕镜像加速,支持容器编排

📋

K8s containerd 镜像下载加速教程

在 k8s 中配置 containerd 使用轩辕镜像加速

🔧

宝塔面板 Docker 镜像下载加速教程

在宝塔面板中配置轩辕镜像加速,提升服务器管理效率

💾

群晖 NAS Docker 镜像下载加速教程

在 Synology 群晖NAS系统中配置轩辕镜像加速

🐂

飞牛fnOS Docker 镜像下载加速教程

在飞牛fnOS系统中配置轩辕镜像加速

📱

极空间 NAS Docker 镜像下载加速教程

在极空间NAS中配置轩辕镜像加速

⚡

爱快路由 ikuai Docker 镜像下载加速教程

在爱快ikuai系统中配置轩辕镜像加速

🔗

绿联 NAS Docker 镜像下载加速教程

在绿联NAS系统中配置轩辕镜像加速

🌐

威联通 NAS Docker 镜像下载加速教程

在威联通NAS系统中配置轩辕镜像加速

📦

Podman Docker 镜像下载加速教程

在 Podman 中配置轩辕镜像加速,支持多系统

📚

ghcr、Quay、nvcr、k8s、gcr 等仓库下载镜像加速教程

配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤

🚀

专属域名方式进行 Docker 镜像下载加速教程

无需登录即可使用轩辕镜像加速服务,更加便捷高效

需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429

商务:17300950906
|©2024-2025 源码跳动
商务合作电话:17300950906|Copyright © 2024-2025 杭州源码跳动科技有限公司. All rights reserved.