quay.io/openeuler/vllm-ascend 是由欧拉(openEuler)社区维护的容器镜像,专为昇腾(Ascend)AI芯片环境设计,基于高性能大语言模型(LLM)推理框架 vllm 构建。该镜像旨在为企业级 LLM 部署提供便捷、高效的解决方案,尤其适配昇腾芯片的算力特性与欧拉操作系统的稳定性。
作为面向昇腾平台的专用推理镜像,其核心价值在于实现 LLM 的低延迟、高吞吐量推理服务。镜像内置经过优化的 vllm 框架,支持主流开源模型(如 Llama、ChatGLM、Qwen 等)的加载与运行,可直接对接企业常见的模型部署需求。通过容器化封装,用户无需手动配置昇腾驱动、CANN 工具链及 vllm 依赖,拉取镜像后即可快速启动推理服务,大幅降低技术门槛。
镜像的核心优势在于深度适配昇腾芯片架构:
该镜像适用于需在昇腾平台部署 LLM 推理服务的场景,例如:
依托欧拉操作系统的稳定性与昇腾芯片的算力优势,该镜像实现了“开箱即用”的 LLM 部署体验。企业无需关注底层硬件适配细节,通过容器化部署可快速将 LLM 能力集成到业务系统,同时借助欧拉社区的持续维护,确保镜像与昇腾软硬件生态的兼容性,为长期运行提供可靠支持。
请登录使用轩辕镜像享受快速拉取体验,支持国内访问优化,速度提升
docker pull quay.io/openeuler/vllm-ascend:latestmanifest unknown 错误
TLS 证书验证失败
DNS 解析超时
410 错误:版本过低
402 错误:流量耗尽
身份认证失败错误
429 限流错误
凭证保存错误
来自真实用户的反馈,见证轩辕镜像的优质服务