
paddlecloud/paddledetection本镜像仓库主要用于存储飞桨模型套件PaddleDetection的标准镜像,方便模型套件用户进行Docker化部署或在云上部署。 PaddleDetection 套件的标准镜像由 PaddleCloud 项目基于 Tekton Pipeline 自动构建, 除了直接使用套件的标准镜像,如果您需要对模型套件进行二次开发并希望能够持续构建定制的镜像, 可以参考 PaddleCloud Tekton文档目录下的文档构建您自己的套件镜像CI流水线。
更多关于部署的内容可以参考云上飞桨项目 PaddleCloud 。
模型套件Docker镜像大礼包。
PaddleCloud 为用户提供了飞桨模型套件 Docker 镜像大礼包,这些镜像中包含运行模型套件案例的所有依赖并能持续更新,支持异构硬件环境和常见CUDA版本、开箱即用。
具有丰富的云上飞桨组件。
云上飞桨具有丰富的云原生功能组件,包括样本数据缓存组件、分部署训练组件、推理推理服务组件等,使用这些组件用户可以方便快捷的在 Kubernetes 集群上镜像模型的训练和部署工作。
功能强大的自运维能力。
云上飞桨组件基于 Kubernetes 的 Operator 机制提供了功能强大的自运维能力,如训练组件支持多种架构模式并具有分布式容错与弹性训练的能力,推理服务组件支持自动扩缩容与蓝绿发版等。
针对飞桨框架的定制优化。
除了部署便捷与自运维的优势,PaddleCloud 还针对飞桨框架进行了正对性优化,如通过缓存样本数据来加速云上飞桨分布式训练作业、基于飞桨框架和调度器的协同设计来优化集群GPU利用率等。
如果您所使用的机器上还没有安装 Docker,您可以参考 Docker 官方文档 来进行安装。 如果您需要使用支持 GPU 版本的镜像,则还需安装好 NVIDIA 相关驱动和 nvidia-docker,详情请参考官方文档 。
使用的Docker环境可以快速上手体验,我们为您提供了CPU和GPU版本的镜像。 如果您是Docker新手,建议您花费几分钟的时间学习下docker基本用法。
使用CPU版本的Docker镜像
bashdocker run --name dev -v $PWD:/mnt -p 8888:8888 -it paddlecloud/paddledetection:2.4-cpu-e9a542 /bin/bash
使用GPU版本的Docker镜像
bashdocker run --name dev --runtime=nvidia -v $PWD:/mnt -p 8888:8888 -it paddlecloud/paddledetection:2.4-gpu-cuda10.2-cudnn7-e9a542 /bin/bash
进入容器内,则可执行 PaddleDetection 套件中提供的案例。
镜像tag最后6个字符是commit id(如bb4fbe),用于定位镜像中的模型套件代码版本,方便定位问题。
| 镜像路径 | 构建时间 |
|---|---|
| paddlecloud/paddledetection:2.4-cpu-e9a542 | 2022年05月09日 |
| paddlecloud/paddledetection:2.4-gpu-cuda11.2-cudnn8-e9a542 | 2022年05月09日 |
| paddlecloud/paddledetection:2.4-gpu-cuda10.2-cudnn7-e9a542 | 2022年05月09日 |
manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务