本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com
Composable Kernel(简称CK)是一款高性能计算内核开发库,旨在为开发者提供模块化、可组合的构建块,用于构建针对多硬件架构(如NVIDIA GPU、AMD GPU等)优化的计算内核。该Docker镜像基于CK库构建,提供预配置的、一致的开发与运行环境,旨在简化依赖管理、消除环境差异,支持开发者快速上手CK库的使用、内核开发、测试及部署。
Composable Kernel镜像托管于Docker Hub或GitHub Container Registry,可通过以下命令拉取:
# 拉取最新版(默认架构,如CUDA) docker pull composablekernel:latest # 拉取指定版本(如v1.2.0) docker pull composablekernel:v1.2.0 # 拉取特定架构版本(如ROCm支持) docker pull composablekernel:rocm-latest
镜像标签说明:
latest:最新稳定版,默认适配主流架构(如CUDA);v<x.y.z>:指定CK版本(如v1.2.0);cuda-<version>/rocm-<version>:指定底层计算栈版本(如cuda-12.1、rocm-5.6)。
# 启动交互式终端,挂载当前目录至容器内/workspace(用于代码持久化) docker run -it --rm \ --name ck-dev-env \ -v $(pwd):/workspace \ # 挂载本地代码目录 composablekernel:latest \ /bin/bash
若需使用GPU加速,需在运行时添加硬件访问参数:
NVIDIA GPU(需安装nvidia-docker):
docker run -it --rm \ --gpus all \ # 映射所有GPU设备 -v $(pwd):/workspace \ composablekernel:cuda-12.1 \ /bin/bash
AMD GPU(ROCm):
docker run -it --rm \ --device /dev/kfd \ # 访问AMD GPU设备 --device /dev/dri \ -v $(pwd):/workspace \ composablekernel:rocm-5.6 \ /bin/bash
容器支持通过环境变量自定义运行时行为,常用变量如下:
| 环境变量名 | 说明 | 默认值 |
|---|---|---|
CK_VERSION | 指定容器内CK库版本(需镜像支持多版本) | 镜像内置版本 |
CMAKE_BUILD_TYPE | 编译类型(Release/Debug/RelWithDebInfo) | Release |
WORKSPACE | 工作目录路径 | /workspace |
CUDA_HOME | CUDA安装路径(CUDA镜像) | /usr/local/cuda |
ROCM_HOME | ROCm安装路径(ROCm镜像) | /opt/rocm |
使用示例:指定Debug模式编译
docker run -it --rm \ -e CMAKE_BUILD_TYPE=Debug \ composablekernel:latest \ /bin/bash
容器内默认包含CK示例代码(路径:/opt/composablekernel/examples),可直接编译验证环境:
# 进入容器后执行 cd /opt/composablekernel/examples/01_simple_gemm mkdir build && cd build cmake .. make -j$(nproc) # 运行编译后的示例(需GPU支持) ./simple_gemm
将本地CK项目挂载至容器,进行自定义内核开发:
# 本地主机执行(挂载当前项目目录至容器/workspace) docker run -it --rm \ --gpus all \ -v $(pwd):/workspace \ composablekernel:latest \ /bin/bash # 容器内编译本地代码 cd /workspace mkdir build && cd build cmake .. -DCMAKE_PREFIX_PATH=/opt/composablekernel make -j$(nproc)
# 拉取并启动支持CUDA 12.1的CK开发环境,挂载代码目录并保留容器(--rm改为--name持久化) docker run -it --name ck-dev-cuda12 \ --gpus all \ -v /path/to/local/code:/workspace \ -v /path/to/datasets:/datasets \ # 挂载数据集 composablekernel:cuda-12.1 \ /bin/bash
创建docker-compose.yml配置文件,定义持久化开发环境:
version: '3' services: ck-dev: image: composablekernel:latest container_name: ck-dev-env runtime: nvidia # NVIDIA GPU需添加(依赖nvidia-docker) environment: - CMAKE_BUILD_TYPE=Release - WORKSPACE=/workspace volumes: - ./local_code:/workspace # 本地代码目录 - ./datasets:/datasets # 数据集目录 - ./ck_cache:/root/.cache # 缓存目录持久化 tty: true # 保持终端连接
启动服务:
docker-compose up -d # 后台启动 docker-compose exec ck-dev /bin/bash # 进入容器
-v参数挂载本地目录保存代码、编译产物及数据。--cpus参数)和内存,避免资源限制影响测试结果。免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429