rocm/vllm-devvLLM-dev 是用于大语言模型(LLM)推理和服务的每周开发流工具包及库。这些容器提供了在 AMD Instinct™ 加速器上快速运行或试用 vLLM 的方式。如需构建或扩展 vLLM-dev,请参考 构建 Dockerfiles。
执行以下命令启动容器:
shelldocker run -it --rm \ --ipc=host \ --network=host \ --privileged \ --cap-add=CAP_SYS_ADMIN \ --device=/dev/kfd \ --device=/dev/dri \ --device=/dev/mem \ --group-add render \ --cap-add=SYS_PTRACE \ --security-opt seccomp=unconfined \ rocm/vllm-dev:main
完整文档(含入门指南、环境配置等内容)详见 此处。



manifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务