本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com
OpenTelemetry Collector (Core) 镜像是 OpenTelemetry 官方提供的核心发行版容器镜像,基于 open-telemetry/opentelemetry-collector 仓库构建,包含 Collector 的核心组件。其主要用途是作为遥测数据(traces、metrics、logs)的统一处理管道,实现对分布式系统中遥测数据的收集、处理、聚合与导出,简化可观测性数据的管理流程。
包含遥测数据处理的核心组件:
支持三大遥测信号的统一处理:
通过 YAML 配置文件定义数据处理管道,支持自定义接收器、处理器、导出器的组合,满足不同场景的遥测需求。
在微服务集群中部署,统一收集各服务产生的遥测数据,避免多服务各自对接监控系统的复杂性。
作为跨环境的遥测数据网关,整合来自私有云、公有云、边缘环境的遥测数据,实现统一监控视图。
在边缘节点或本地数据中心部署,聚合分散的遥测数据后批量导出,减少对后端系统的请求压力。
通过接收器/导出器适配非 OpenTelemetry 协议的系统(如 Zipkin、Fluentd 等),实现现有监控工具的平滑迁移。
docker run 命令通过挂载本地配置文件启动 Collector:
docker run -d \ --name otel-collector \ -p 4317:4317 # OTLP gRPC 端口(根据配置的接收器调整) \ -v $(pwd)/otel-config.yaml:/etc/otelcol/config.yaml \ # 挂载本地配置文件 otel/opentelemetry-collector:latest # 镜像名称(推荐指定具体版本,如 v0.91.0)
说明:
-p 4317:4317为 OTLP gRPC 接收器默认端口,需根据配置文件中的接收器调整端口映射(如 HTTP 接收器端口 4318)。
创建 docker-compose.yml:
version: '3.8' services: otel-collector: image: otel/opentelemetry-collector:latest container_name: otel-collector ports: - "4317:4317" # OTLP gRPC - "4318:4318" # OTLP HTTP volumes: - ./otel-config.yaml:/etc/otelcol/config.yaml # 挂载配置文件 environment: - OTEL_LOG_LEVEL=info # 日志级别(可选,默认 info) restart: unless-stopped
启动服务:
docker-compose up -d
Collector 通过 YAML 配置文件定义数据处理流程,核心结构如下:
# 接收器配置 receivers: # 示例:启用 OTLP 接收器(gRPC + HTTP) otlp: protocols: grpc: endpoint: 0.0.0.0:4317 # 容器内监听地址(需映射宿主机端口) http: endpoint: 0.0.0.0:4318 # 处理器配置 processors: # 示例:启用批处理(减少导出请求次数) batch: send_batch_size: 1024 timeout: 5s # 导出器配置 exporters: # 示例:导出至 Jaeger(Traces) jaeger: endpoint: "jaeger:14250" tls: insecure: true # 示例:导出至 Prometheus(Metrics) prometheus: endpoint: "0.0.0.0:8889" resource_to_telemetry_conversion: enabled: true # 服务配置:定义数据处理管道 service: pipelines: traces: receivers: [otlp] # 使用 OTLP 接收器 processors: [batch] # 使用批处理处理器 exporters: [jaeger] # 导出至 Jaeger metrics: receivers: [otlp] processors: [batch] exporters: [prometheus]
Collector 启动时需加载配置文件,默认读取容器内路径 /etc/otelcol/config.yaml。通过 Docker volumes 将本地配置文件挂载至该路径即可生效:
-v /本地路径/otel-config.yaml:/etc/otelcol/config.yaml
Collector 的行为主要通过 配置文件 定义,核心配置参数如下:
receivers 部分定义数据接收方式,每个接收器需指定协议和监听地址。常见接收器配置示例:
receivers: otlp: protocols: grpc: endpoint: "0.0.0.0:4317" # gRPC 端口 http: endpoint: "0.0.0.0:4318" # HTTP 端口
receivers: prometheus: config: scrape_configs: - job_name: "otel-collector" static_configs: - targets: ["localhost:8888"]
processors 部分定义数据处理逻辑,常见处理器:
batch:批处理数据,减少导出请求次数。
processors: batch: send_batch_size: 1024 # 批处理大小 timeout: 5s # 超时时间(达到超时后即使未达 batch 大小也导出)
memory_limiter:限制内存使用,避免 OOM。
processors: memory_limiter: check_interval: 5s limit_mib: 512 # 内存限制(MiB) spike_limit_mib: 128 # 突发内存限制(MiB)
exporters 部分定义数据导出目标,常见导出器:
exporters: otlp/backend: endpoint: "backend-collector:4317" tls: insecure: true
exporters: jaeger: endpoint: "jaeger:14250" # Jaeger gRPC 接收端口 tls: insecure: true
service.pipelines 部分定义数据处理管道,关联接收器、处理器、导出器:
service: pipelines: traces: # traces 管道 receivers: [otlp] # 从 otlp 接收器接收 processors: [memory_limiter, batch] # 依次通过 memory_limiter 和 batch 处理器 exporters: [jaeger] # 导出至 jaeger 导出器 metrics: # metrics 管道 receivers: [otlp, prometheus] processors: [batch] exporters: [prometheus]
Collector 支持通过环境变量调整运行时行为,常见变量如下:
| 环境变量名 | 说明 | 默认值 |
|---|---|---|
OTEL_CONFIG_FILE | 配置文件路径(容器内路径) | /etc/otelcol/config.yaml |
OTEL_LOG_LEVEL | 日志级别(debug, info, warn, error) | info |
OTEL_RESOURCE_ATTRIBUTES | 全局资源属性(如服务名、环境等) | 无(需手动指定,格式:key=value,key2=value2) |
otelcol-contrib --config=otel-config.yaml --validate 校验配置文件语法(需本地安装 Collector 二进制)。v0.91.0),避免 latest 标签带来的版本不确定性。免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤
在 Linux 系统上配置轩辕镜像源,支持主流发行版
在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统
在 Docker Compose 中使用轩辕镜像加速,支持容器编排
在 k8s 中配置 containerd 使用轩辕镜像加速
在宝塔面板中配置轩辕镜像加速,提升服务器管理效率
在 Synology 群晖NAS系统中配置轩辕镜像加速
在飞牛fnOS系统中配置轩辕镜像加速
在极空间NAS中配置轩辕镜像加速
在爱快ikuai系统中配置轩辕镜像加速
在绿联NAS系统中配置轩辕镜像加速
在威联通NAS系统中配置轩辕镜像加速
在 Podman 中配置轩辕镜像加速,支持多系统
配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤
无需登录即可使用轩辕镜像加速服务,更加便捷高效
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429