专属域名
文档搜索
轩辕助手
Run助手
邀请有礼
返回顶部
快速返回页面顶部
收起
收起工具栏
轩辕镜像 官方专业版
轩辕镜像
专业版
轩辕镜像 官方专业版
轩辕镜像
专业版
首页个人中心搜索镜像

交易
充值流量我的订单
工具
提交工单镜像收录一键安装
Npm 源Pip 源Homebrew 源
帮助
常见问题轩辕镜像免费版
其他
关于我们网站地图
热门搜索:
inference-node

hamunadocker/inference-node

hamunadocker

分布式机器学习推理节点镜像,用于在分布式环境中部署和运行机器学习模型推理任务,支持高效扩展和资源优化,适用于大规模模型推理场景。

下载次数: 0状态:社区镜像维护者:hamunadocker仓库类型:镜像最近更新:1 年前
使用轩辕镜像,把时间还给真正重要的事。点击查看
中文简介
标签下载
镜像标签列表与下载命令
使用轩辕镜像,把时间还给真正重要的事。点击查看

镜像概述

该镜像为分布式机器学习(ML)推理节点解决方案,旨在通过分布式架构实现高效的模型推理任务处理。它支持在多节点集群中部署,可动态扩展计算资源,优化推理性能,适用于需要大规模、低延迟推理的业务场景。镜像集成了推理引擎、资源管理模块和分布式通信组件,简化分布式推理系统的搭建流程。

核心功能与特性

1. 分布式推理支持

  • 支持多节点协同推理,通过分布式通信协议(如gRPC、MPI)实现节点间数据传输与任务调度
  • 支持横向扩展,可动态添加/移除节点以适应推理负载变化
  • 内置负载均衡机制,自动分配推理任务至空闲节点,避免单点过载

2. 资源优化与管理

  • 支持GPU/CPU资源智能调度,根据模型类型自动分配计算资源
  • 提供内存与显存优化功能,减少资源占用并提升推理吞吐量
  • 支持资源隔离,避免多模型/任务间资源竞争

3. 模型兼容性与灵活性

  • 兼容主流机器学习框架模型(TensorFlow、PyTorch、ONNX等)
  • 支持模型动态加载与更新,无需重启节点即可部署新模型版本
  • 支持单节点多模型并行推理,提高资源利用率

4. 高可用性与监控

  • 内置节点健康检查机制,自动检测并替换故障节点
  • 支持推理任务断点续跑,避免任务中断导致的数据丢失
  • 提供Prometheus监控指标接口,可集成第三方监控系统(如Grafana)

使用场景与适用范围

1. 大规模在线推理

适用于需要处理高并发推理请求的场景(如推荐系统、图像识别API服务),通过分布式节点扩展支持每秒数十万次推理请求。

2. 实时数据处理

支持流数据推理场景(如实时视频分析、日志异常检测),结合分布式架构实现低延迟数据处理。

3. 多模型协同部署

可在同一集群中部署多个不同类型模型(如NLP模型、CV模型),通过资源隔离实现多任务并行处理。

4. 边缘计算推理

支持边缘节点部署,结合云端管理节点实现边缘-云端协同推理,降低数据传输成本。

使用方法与配置说明

前置要求

  • Docker Engine 20.10+
  • 分布式集群环境(如Kubernetes、Docker Swarm,或手动配置的多节点网络)
  • 模型文件(支持本地路径挂载或远程存储访问)

基础部署命令(单节点测试)

bash
docker run -d \
  --name ml-inference-node \
  -p 8080:8080 \
  -v /path/to/local/models:/models \
  -e MODEL_PATH=/models/resnet50.onnx \
  -e PORT=8080 \
  -e RESOURCES=gpu:1,cpu:4 \
  distributed-ml-inference-node:latest

分布式集群部署(多节点)

环境变量配置

环境变量描述默认值示例值
MODEL_PATH模型文件路径(容器内路径)/models/model/models/bert-base.onnx
NODE_ID节点唯一标识node-0node-1
MASTER_NODE主节点地址(用于集群发现)localhost192.168.1.100:8080
PORT节点服务端口80808081
RESOURCES节点资源配置(gpu/cpu数量)cpu:2gpu:2,cpu:8
LOG_LEVEL日志级别(DEBUG/INFO/WARN/ERROR)INFODEBUG

Docker Compose 多节点示例

yaml
version: '3.8'
services:
  inference-node-1:
    image: distributed-ml-inference-node:latest
    ports:
      - "8081:8080"
    volumes:
      - ./models:/models
    environment:
      - MODEL_PATH=/models/onnx/resnet50.onnx
      - NODE_ID=node-1
      - MASTER_NODE=inference-master:8080
      - PORT=8080
      - RESOURCES=gpu:1,cpu:4
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: 1
              capabilities: [gpu]

  inference-node-2:
    image: distributed-ml-inference-node:latest
    ports:
      - "8082:8080"
    volumes:
      - ./models:/models
    environment:
      - MODEL_PATH=/models/onnx/resnet50.onnx
      - NODE_ID=node-2
      - MASTER_NODE=inference-master:8080
      - PORT=8080
      - RESOURCES=gpu:1,cpu:4
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: 1
              capabilities: [gpu]

  inference-master:
    image: distributed-ml-inference-node:latest
    ports:
      - "8080:8080"
    environment:
      - NODE_ID=master
      - MASTER_NODE=self
      - PORT=8080
      - RESOURCES=cpu:2

验证部署

  1. 启动节点后,通过 curl http://<node-ip>:<port>/health 检查节点健康状态,返回 {"status": "healthy"} 表示部署成功。
  2. 发送推理请求示例:
bash
curl -X POST http://<node-ip>:8080/infer \
  -H "Content-Type: application/json" \
  -d '{"input": [1.2, 3.4, 5.6, ...]}'
  1. 查看节点监控指标:访问 http://<node-ip>:<port>/metrics 获取Prometheus格式监控数据。

注意事项

  • 分布式部署时需确保所有节点网络互通,建议使用Kubernetes等容器编排平台管理节点发现与网络配置。
  • 模型文件需确保所有节点可访问(如通过NFS共享存储或分布式文件系统)。
  • GPU支持需在主机环境安装NVIDIA Container Toolkit,并在部署时指定GPU资源。

镜像拉取方式

您可以使用以下命令拉取该镜像。请将 <标签> 替换为具体的标签版本。如需查看所有可用标签版本,请访问 标签列表页面。

轩辕镜像加速拉取命令点我查看更多 inference-node 镜像标签

docker pull docker.xuanyuan.run/hamunadocker/inference-node:<标签>

使用方法:

  • 登录认证方式
  • 免认证方式

DockerHub 原生拉取命令

docker pull hamunadocker/inference-node:<标签>

更多 inference-node 镜像推荐

nodered/node-red logo

nodered/node-red

nodered
事件驱动型应用的低代码编程是一种通过可视化拖拽、预设组件及模型驱动等方式,简化事件触发逻辑(如用户交互、系统通知、数据变更等)设计与开发流程的技术方法,能有效降低开发门槛,让开发者无需深入编写复杂代码即可快速构建响应实时事件的应用,支持敏捷迭代和业务需求快速落地,广泛应用于自动化流程、实时监控、用户交互系统等场景,显著提升开发效率与应用交付速度。
759 次收藏1亿+ 次下载
1 个月前更新
node logo

library/node

Docker 官方镜像
Node.js是一个基于JavaScript的跨平台运行时环境,主要用于构建高效的服务器端和网络应用程序,它采用单线程、非阻塞I/O及事件驱动模型,依托Chrome V8引擎实现快速代码执行,能够高效处理大量并发请求,广泛适用于实时通信系统、API服务、微服务架构等场景,让开发者可使用JavaScript同时进行前后端开发,显著提升开发效率与系统性能。
1.4万 次收藏10亿+ 次下载
6 天前更新
nodered/node-red-dev logo

nodered/node-red-dev

nodered
Node-RED项目的开发/测试构建版本(非稳定版)
8 次收藏10万+ 次下载
12 天前更新
cimg/node logo

cimg/node

cimg
CircleCI Node.js Docker便捷镜像是为Node.js项目提供的预配置Docker镜像,旨在简化CI/CD流程中的环境设置,方便开发者快速集成和部署应用。
27 次收藏5亿+ 次下载
12 天前更新
circleci/node logo

circleci/node

circleci
CircleCI Node.js镜像基于官方Node.js镜像扩展,包含开发和CI常用工具(如git、ssh、docker等),提供浏览器测试变体,默认使用非root用户,适用于CI/CD环境中的Node.js项目构建与测试。
135 次收藏1亿+ 次下载
4 年前更新
bitnami/node logo

bitnami/node

Bitnami Secure Images(VMware Tanzu)
Bitnami 提供的 Node.js 安全镜像,基于 Photon Linux 构建,具有强化安全特性、最小漏洞、合规支持和供应链安全保障,适用于快速部署安全可靠的 Node.js 应用。
83 次收藏1000万+ 次下载
3 天前更新

查看更多 inference-node 相关镜像

轩辕镜像配置手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

Docker 配置

登录仓库拉取

通过 Docker 登录认证访问私有仓库

专属域名拉取

无需登录使用专属域名

K8s Containerd

Kubernetes 集群配置 Containerd

K3s

K3s 轻量级 Kubernetes 镜像加速

Dev Containers

VS Code Dev Containers 配置

Podman

Podman 容器引擎配置

Singularity/Apptainer

HPC 科学计算容器配置

其他仓库配置

ghcr、Quay、nvcr 等镜像仓库

Harbor 镜像源配置

Harbor Proxy Repository 对接专属域名

Portainer 镜像源配置

Portainer Registries 加速拉取

Nexus 镜像源配置

Nexus3 Docker Proxy 内网缓存

系统配置

Linux

在 Linux 系统配置镜像服务

Windows/Mac

在 Docker Desktop 配置镜像

MacOS OrbStack

MacOS OrbStack 容器配置

Docker Compose

Docker Compose 项目配置

NAS 设备

群晖

Synology 群晖 NAS 配置

飞牛

飞牛 fnOS 系统配置镜像

绿联

绿联 NAS 系统配置镜像

威联通

QNAP 威联通 NAS 配置

极空间

极空间 NAS 系统配置服务

网络设备

爱快路由

爱快 iKuai 路由系统配置

宝塔面板

在宝塔面板一键配置镜像

需要其他帮助?请查看我们的 常见问题Docker 镜像访问常见问题解答 或 提交工单

镜像拉取常见问题

使用与功能问题

配置了专属域名后,docker search 为什么会报错?

docker search 限制

Docker Hub 上有的镜像,为什么在轩辕镜像网站搜不到?

站内搜不到镜像

机器不能直连外网时,怎么用 docker save / load 迁镜像?

离线 save/load

docker pull 拉插件报错(plugin v1+json)怎么办?

插件要用 plugin install

WSL 里 Docker 拉镜像特别慢,怎么排查和优化?

WSL 拉取慢

轩辕镜像安全吗?如何用 digest 校验镜像没被篡改?

安全与 digest

第一次用轩辕镜像拉 Docker 镜像,要怎么登录和配置?

新手拉取配置

轩辕镜像合规吗?轩辕镜像的合规是怎么做的?

镜像合规机制

错误码与失败问题

docker pull 提示 manifest unknown 怎么办?

manifest unknown

docker pull 提示 no matching manifest 怎么办?

no matching manifest(架构)

镜像已拉取完成,却提示 invalid tar header 或 failed to register layer 怎么办?

invalid tar header(解压)

Docker pull 时 HTTPS / TLS 证书验证失败怎么办?

TLS 证书失败

Docker pull 时 DNS 解析超时或连不上仓库怎么办?

DNS 超时

docker 无法连接轩辕镜像域名怎么办?

域名连通性排查

Docker 拉取出现 410 Gone 怎么办?

410 Gone 排查

出现 402 或「流量用尽」提示怎么办?

402 与流量用尽

Docker 拉取提示 UNAUTHORIZED(401)怎么办?

401 认证失败

遇到 429 Too Many Requests(请求太频繁)怎么办?

429 限流

docker login 提示 Cannot autolaunch D-Bus,还算登录成功吗?

D-Bus 凭证提示

为什么会出现「单层超过 20GB」或 413,无法加速拉取?

413 与超大单层

账号 / 计费 / 权限

轩辕镜像免费版和专业版有什么区别?

免费版与专业版区别

轩辕镜像支持哪些 Docker 镜像仓库?

支持的镜像仓库

镜像拉取失败还会不会扣流量?

失败是否计费

麒麟 V10 / 统信 UOS 提示 KYSEC 权限不够怎么办?

KYSEC 拦截脚本

如何在轩辕镜像申请开具发票?

申请开票

怎么修改轩辕镜像的网站登录和仓库登录密码?

修改登录密码

如何注销轩辕镜像账户?要注意什么?

注销账户

配置与原理类

写了 registry-mirrors,为什么还是走官方或仍然报错?

mirrors 不生效

怎么用 docker tag 去掉镜像名里的轩辕域名前缀?

去掉域名前缀

如何拉取指定 CPU 架构的镜像(如 ARM64、AMD64)?

指定架构拉取

用轩辕镜像拉镜像时快时慢,常见原因有哪些?

拉取速度原因

查看全部问题→

用户好评

来自真实用户的反馈,见证轩辕镜像的优质服务

用户头像

oldzhang

运维工程师

Linux服务器

5

"Docker访问体验非常流畅,大镜像也能快速完成下载。"

轩辕镜像
镜像详情
...
hamunadocker/inference-node
博客Docker 镜像公告与技术博客
热门查看热门 Docker 镜像推荐
安装一键安装 Docker 并配置镜像源
镜像拉取问题咨询请 提交工单,官方技术交流群:1072982923。轩辕镜像所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
镜像拉取问题咨询请提交工单,官方技术交流群:。轩辕镜像所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
商务合作:点击复制邮箱
©2024-2026 源码跳动
商务合作:点击复制邮箱Copyright © 2024-2026 杭州源码跳动科技有限公司. All rights reserved.