本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。
所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。

litellm Docker 镜像下载 - 轩辕镜像

litellm 镜像详细信息和使用指南

litellm 镜像标签列表和版本信息

litellm 镜像拉取命令和加速下载

litellm 镜像使用说明和配置指南

Docker 镜像加速服务 - 轩辕镜像平台

国内开发者首选的 Docker 镜像加速平台

极速拉取 Docker 镜像服务

相关 Docker 镜像推荐

热门 Docker 镜像下载

litellm
serhiimandrykin/litellm

litellm 镜像详细信息

litellm 镜像标签列表

litellm 镜像使用说明

litellm 镜像拉取命令

Docker 镜像加速服务

轩辕镜像平台优势

镜像下载指南

相关 Docker 镜像推荐

LiteLLM的构建版本Docker镜像,提供统一接口用于调用多种大语言模型(如OpenAI、Anthropic、Google等),简化跨模型API集成,源代码来自[***]
0 次下载activeserhiimandrykin镜像

litellm 镜像详细说明

litellm 使用指南

litellm 配置说明

litellm 官方文档

LiteLLM Docker镜像文档

1. 镜像概述

本镜像为LiteLLM的预构建Docker容器,基于BerriAI开源项目([***]

2. 核心功能与特性

  • 多模型兼容:支持主流LLM提供商,包括OpenAI(GPT系列)、Anthropic(Claude系列)、Google(Gemini)、AWS Bedrock、Cohere、Hugging Face等
  • API标准化:兼容OpenAI API格式,现有OpenAI客户端可无缝切换至其他模型,无需修改调用代码
  • 内置代理服务:提供HTTP端点(默认端口4000)接收LLM请求,支持同步/异步调用模式
  • 请求管理:集成批处理请求、超时控制、自动重试机制,提升服务稳定性
  • 缓存优化:支持Redis/内存缓存,减少重复请求成本,提高响应速度
  • 可观测性:提供结构化日志输出,支持日志级别配置(debug/info/warn/error),便于问题排查

3. 使用场景与适用范围

  • 多模型集成应用:需在单一系统中调用多种LLM的场景(如模型对比、任务路由、成本优化)
  • LLM应用开发:快速搭建开发/测试环境,无需本地配置多厂商SDK与依赖
  • 生产环境部署:通过容器化确保环境一致性,简化水平扩展与版本管理
  • API网关服务:作为LLM请求统一入口,实现权限控制、流量管理、模型路由等功能

4. 使用方法与配置说明

4.1 基本部署(docker run)

4.1.1 快速启动(默认配置)

bash
docker run -d -p 4000:4000 --name litellm berriai/litellm:latest

4.1.2 带API密钥的典型部署

bash
docker run -d -p 4000:4000 \
  -e OPENAI_API_KEY="your-openai-key" \
  -e ANTHROPIC_API_KEY="your-anthropic-key" \
  -e LOG_LEVEL="info" \
  --name litellm berriai/litellm:latest

4.2 docker-compose配置示例

yaml
version: '3.8'
services:
  litellm:
    image: berriai/litellm:latest
    container_name: litellm-service
    restart: unless-stopped
    ports:
      - "4000:4000"  # 映射服务端口
    environment:
      # 基础配置
      - PORT=4000  # 服务监听端口(容器内)
      - LOG_LEVEL=info  # 日志级别
      # LLM API密钥(按需配置)
      - OPENAI_API_KEY=${OPENAI_API_KEY}
      - ANTHROPIC_API_KEY=${ANTHROPIC_API_KEY}
      - GOOGLE_API_KEY=${GOOGLE_API_KEY}
      - AWS_ACCESS_KEY_ID=${AWS_ACCESS_KEY_ID}  # Bedrock需要
      - AWS_SECRET_ACCESS_KEY=${AWS_SECRET_ACCESS_KEY}  # Bedrock需要
      # 缓存配置(可选)
      - CACHE_TYPE=redis
      - REDIS_URL=redis://redis:6379  # 需配合redis服务
    volumes:
      - ./litellm_config.yaml:/app/config/litellm_config.yaml  # 挂载自定义配置
    depends_on:
      - redis  # 如使用Redis缓存

  redis:
    image: redis:alpine
    container_name: litellm-redis
    ports:
      - "6379:6379"

4.3 环境变量配置

环境变量名描述默认值必要性
PORT服务监听端口(容器内)4000可选
LOG_LEVEL日志输出级别(debug/info/warn/error)info可选
LITELLM_CONFIG自定义配置文件路径(容器内绝对路径)-可选
CACHE_TYPE缓存类型(redis/in_memory/null)null可选
REDIS_URLRedis缓存连接地址(当CACHE_TYPE=redis时需配置)-条件必填
[厂商]_API_KEY各LLM厂商API密钥(如OPENAI_API_KEY、ANTHROPIC_API_KEY等)-按需必填

4.4 自定义配置文件

通过挂载YAML配置文件实现高级定制(需设置LITELLM_CONFIG环境变量指定路径),支持模型路由、超时控制、默认参数等配置。示例配置(litellm_config.yaml):

yaml
# 模型列表配置
model_list:
  - model_name: gpt-3.5-turbo  # 自定义模型别名
    litellm_params:
      model: openai/gpt-3.5-turbo  # 实际模型标识
      api_key: ${OPENAI_API_KEY}   # 引用环境变量
      temperature: 0.7             # 默认温度值
  - model_name: claude-3-sonnet
    litellm_params:
      model: anthropic/claude-3-sonnet-20240229
      api_key: ${ANTHROPIC_API_KEY}
      max_tokens: 4096             # 默认最大token数

# 全局设置
general_settings:
  timeout: 60  # 请求超时时间(秒)
  max_retries: 2  # 失败重试次数
  allowed_origins: "*"  # CORS配置

挂载配置文件启动命令:

bash
docker run -d -p 4000:4000 \
  -v $(pwd)/litellm_config.yaml:/app/config/litellm_config.yaml \
  -e LITELLM_CONFIG=/app/config/litellm_config.yaml \
  -e OPENAI_API_KEY="your-key" \
  berriai/litellm:latest

4.5 API调用示例

服务启动后,可通过HTTP请求调用LLM,接口格式与OpenAI兼容:

调用默认模型(需配置模型列表默认项)

bash
curl http://localhost:4000/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gpt-3.5-turbo",
    "messages": [{"role": "user", "content": "Hello LiteLLM!"}]
  }'

调用指定厂商模型

bash
curl http://localhost:4000/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "anthropic/claude-3-sonnet-20240229",  # 直接指定厂商模型标识
    "messages": [{"role": "user", "content": "Hello LiteLLM!"}]
  }'

5. 注意事项

  • 安全建议:API密钥等敏感信息通过环境变量注入,避免硬编码;生产环境建议启用API密钥认证(参考***文档配置api_key参数)
  • 资源配置:根据请求量调整容器资源(推荐至少1核CPU/2GB内存),高并发场景需配置负载均衡
  • 版本管理:生产环境优先使用具体版本标签(如v1.30.0)而非latest,避免自动更新导致兼容性问题
  • 网络策略:如需外部访问,确保宿主机端口映射正确,并通过防火墙限制访问源IP

用户好评

来自真实用户的反馈,见证轩辕镜像的优质服务

oldzhang的头像

oldzhang

运维工程师

Linux服务器

5

"Docker加速体验非常流畅,大镜像也能快速完成下载。"