
micromamba-docker 是基于 https://github.com/mamba-org/mamba#micromamba 的 Docker 镜像,旨在快速构建轻量级的 conda 环境容器。Micromamba 是 mamba-org 开发的轻量级包管理器,作为 conda 的高效替代方案,提供更快的依赖解析和包安装速度。该镜像适用于需要小型化、快速部署的 conda 环境容器化场景。
镜像托管地址:
源码仓库:https://github.com/mamba-org/micromamba-docker/
用户反馈:"我将项目 CI 切换到 micromamba,与使用 miniconda 镜像相比,构建时间减少了超过 2 倍" —— 一位新用户
2.3.2、2.3、2)及开发版标签(如 git-fb21d17)镜像提供丰富的标签变体,按基础系统和功能特性分类如下:
| 基础系统 | 主要标签示例 | Dockerfile 链接 |
|---|---|---|
| Debian Slim | latest, debian13-slim, debian-slim, 2.3.2, 2.3, 2 | https://github.com/mamba-org/micromamba-docker/blob/main/debian.Dockerfile |
| Debian | debian13, debian, 2.3.2-debian13, 2.3-debian13 | https://github.com/mamba-org/micromamba-docker/blob/main/debian.Dockerfile |
| Ubuntu | ubuntu25.04, ubuntu24.04, ubuntu22.04, ubuntu20.04, ubuntu | https://github.com/mamba-org/micromamba-docker/blob/main/debian.Dockerfile |
| Alpine | alpine3.21, alpine, alpine3.19, alpine3.18, 2.3.2-alpine3.21 | https://github.com/mamba-org/micromamba-docker/blob/main/alpine.Dockerfile |
| Amazon Linux | amazon2023, amazon, 2.3.2-amazon2023, 2.3-amazon2023 | https://github.com/mamba-org/micromamba-docker/blob/main/fedora.Dockerfile |
提供多种 CUDA 版本与 Ubuntu 系统组合,支持 GPU 加速应用:
| CUDA 版本 | 兼容 Ubuntu 版本 | 主要标签示例 |
|---|---|---|
| CUDA 13.0.0 | 24.04, 22.04 | cuda13.0.0-ubuntu24.04, cuda, 2.3.2-cuda13.0.0-ubuntu24.04 |
| CUDA 12.9.1 | 24.04, 22.04, 20.04 | cuda12.9.1-ubuntu24.04, 2.3.2-cuda12.9.1-ubuntu22.04 |
| CUDA 12.8.1 | 24.04, 22.04, 20.04 | cuda12.8.1-ubuntu24.04, 2.3.2-cuda12.8.1-ubuntu22.04 |
| CUDA 12.6.3 | 24.04, 22.04, 20.04 | cuda12.6.3-ubuntu24.04, 2.3.2-cuda12.6.3-ubuntu22.04 |
| CUDA 11.x | 22.04, 20.04 | cuda11.7.1-ubuntu22.04, cuda11.8.0-ubuntu20.04, cuda11.4.3-ubuntu20.04 |
标签采用以下格式组合:[micromamba版本]-[基础系统/特性],例如:
2.3.2-debian13-slim(Micromamba 2.3.2 + Debian 13 Slim)2-debian13-slim(Micromamba 2.x + Debian 13 Slim)git-fb21d17-debian13-slim(基于 Git commit fb21d17 的开发构建)5.1.1 交互式 shell
启动包含默认 base 环境的交互式容器:
bashdocker run -it --rm mambaorg/micromamba
5.1.2 执行命令
直接在容器中运行 Micromamba 命令(如查看版本):
bashdocker run --rm mambaorg/micromamba micromamba --version
通过 Dockerfile 扩展基础镜像,添加自定义依赖:
5.2.1 简单依赖安装
dockerfileFROM mambaorg/micromamba:2.3.2-debian13-slim # 切换到默认非 root 用户(micromamba) USER micromamba # 创建并激活自定义环境 RUN micromamba create -n myenv python=3.11 numpy pandas -y && \ micromamba clean -afy # 清理缓存减小体积 # 设置默认环境 ENV MAMBA_DEFAULT_ENV=myenv # 将环境二进制路径添加到 PATH ENV PATH="/opt/conda/envs/myenv/bin:$PATH"
5.2.2 使用 environment.yml
通过 environment.yml 批量定义环境:
dockerfileFROM mambaorg/micromamba:latest # 复制环境配置文件 COPY environment.yml /tmp/ # 创建环境并清理缓存 RUN micromamba env create -f /tmp/environment.yml && \ micromamba clean -afy # 激活环境 ENV MAMBA_DEFAULT_ENV=myenv ENV PATH="/opt/conda/envs/myenv/bin:$PATH"
镜像支持以下环境变量自定义行为:
| 环境变量 | 描述 | 默认值 |
|---|---|---|
MAMBA_ROOT_PREFIX | Micromamba 根目录路径 | /opt/conda |
MAMBA_DEFAULT_ENV | 默认激活的环境名称 | base |
MAMBA_USER | 运行用户名称 | micromamba |
MAMBA_USER_ID | 用户 UID | 1000 |
MAMBA_USER_GID | 用户组 GID | 1000 |
添加额外 channels 或调整优先级:
dockerfileFROM mambaorg/micromamba:latest USER micromamba # 配置 conda-forge 为优先 channel RUN micromamba config set channels conda-forge && \ micromamba config set channel_priority strict && \ micromamba install -y python=3.11 && \ micromamba clean -afy
docker-compose.yml:
yamlversion: '3.8' services: app: build: context: . dockerfile: Dockerfile image: myapp-micromamba:latest volumes: - ./src:/app # 挂载本地代码目录 environment: - MAMBA_DEFAULT_ENV=dev - PYTHONUNBUFFERED=1 # Python 实时输出日志 command: python /app/main.py
配套 Dockerfile:
dockerfileFROM mambaorg/micromamba:2.3.2-ubuntu22.04 # 复制环境配置 COPY environment.yml /tmp/ # 创建开发环境 RUN micromamba env create -f /tmp/environment.yml && \ micromamba clean -afy # 配置环境变量 ENV MAMBA_DEFAULT_ENV=dev ENV PATH="/opt/conda/envs/dev/bin:$PATH" WORKDIR /app
使用 CUDA 标签部署 GPU 加速应用(需主机安装 NVIDIA Container Toolkit):
bash# 拉取 CUDA 12.8.1 + Ubuntu 22.04 镜像 docker pull mambaorg/micromamba:cuda12.8.1-ubuntu22.04 # 启动带 GPU 支持的交互式容器 docker run --gpus all -it --rm mambaorg/micromamba:cuda12.8.1-ubuntu22.04 # 在容器内安装 PyTorch(示例) micromamba install -c pytorch pytorch torchvision torchaudio cudatoolkit=12.1 -y
您可以使用以下命令拉取该镜像。请将 <标签> 替换为具体的标签版本。如需查看所有可用标签版本,请访问 标签列表页面。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录认证访问私有仓库
无需登录使用专属域名
Kubernetes 集群配置 Containerd
K3s 轻量级 Kubernetes 镜像加速
VS Code Dev Containers 配置
Podman 容器引擎配置
HPC 科学计算容器配置
ghcr、Quay、nvcr 等镜像仓库
Harbor Proxy Repository 对接专属域名
Portainer Registries 加速拉取
Nexus3 Docker Proxy 内网缓存
需要其他帮助?请查看我们的 常见问题Docker 镜像访问常见问题解答 或 提交工单
docker search 限制
站内搜不到镜像
离线 save/load
插件要用 plugin install
WSL 拉取慢
安全与 digest
新手拉取配置
镜像合规机制
manifest unknown
no matching manifest(架构)
invalid tar header(解压)
TLS 证书失败
DNS 超时
域名连通性排查
410 Gone 排查
402 与流量用尽
401 认证失败
429 限流
D-Bus 凭证提示
413 与超大单层
来自真实用户的反馈,见证轩辕镜像的优质服务