轩辕镜像
轩辕镜像专业版
个人中心搜索镜像
交易
充值流量我的订单
工具
工单支持镜像收录Run 助手IP 归属地密码生成Npm 源Pip 源
帮助
常见问题我要吐槽
其他
关于我们网站地图

官方QQ群: 13763429

轩辕镜像
镜像详情
linuxserver/faster-whisper
官方博客使用教程热门镜像工单支持
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。
所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。
轩辕镜像 - 国内开发者首选的专业 Docker 镜像下载加速服务平台 - 官方QQ群:13763429 👈点击免费获得技术支持。
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。

本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

faster-whisper Docker 镜像下载 - 轩辕镜像

faster-whisper 镜像详细信息和使用指南

faster-whisper 镜像标签列表和版本信息

faster-whisper 镜像拉取命令和加速下载

faster-whisper 镜像使用说明和配置指南

Docker 镜像加速服务 - 轩辕镜像平台

国内开发者首选的 Docker 镜像加速平台

极速拉取 Docker 镜像服务

相关 Docker 镜像推荐

热门 Docker 镜像下载

faster-whisper
linuxserver/faster-whisper

faster-whisper 镜像详细信息

faster-whisper 镜像标签列表

faster-whisper 镜像使用说明

faster-whisper 镜像拉取命令

Docker 镜像加速服务

轩辕镜像平台优势

镜像下载指南

相关 Docker 镜像推荐

LinuxServer.io提供的Faster Whisper语音识别模型Docker镜像,用于高效部署和运行语音转文本服务。
18 收藏0 次下载activelinuxserver镜像
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源
中文简介版本下载
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源

faster-whisper 镜像详细说明

faster-whisper 使用指南

faster-whisper 配置说明

faster-whisper 官方文档

linuxserver/faster-whisper 镜像文档

镜像概述和主要用途

linuxserver/faster-whisper 是基于 Faster-whisper 的Docker镜像。Faster-whisper是OpenAI Whisper模型的重新实现,使用CTranslate2作为Transformer模型的快速推理引擎。本容器提供了一个基于Wyoming协议的faster-whisper服务器,主要用于语音转文本(STT)任务。

LinuxServer.io团队提供的该容器具有以下特点:

  • 定期及时的应用更新
  • 简单的用户映射(PGID, PUID)
  • 带有s6覆盖层的自定义基础镜像
  • 每周基础操作系统更新,在整个LinuxServer.io生态系统中共享通用层,以最小化空间使用、停机时间和带宽
  • 定期安全更新

核心功能和特性

  • 高性能语音识别:基于CTranslate2优化的Whisper模型,提供比原始Whisper更快的推理速度
  • Wyoming协议支持:可与Home Assistant等支持Wyoming协议的语音助手集成
  • 多架构支持:x86-64和arm64架构
  • GPU加速:提供支持Nvidia GPU的镜像版本
  • 灵活的模型选择:支持多种Whisper模型和-int8压缩变体
  • 可配置的转录参数:支持设置语言、beam数量等参数
  • 本地模型支持:可使用本地提供的模型,无需从HuggingFace下载

支持的架构

该镜像利用docker manifest实现多平台支持。只需拉取 lscr.io/linuxserver/faster-whisper:latest 即可获取适合您架构的正确镜像,也可以通过标签拉取特定架构的镜像。

支持的架构:

架构可用标签
x86-64✅amd64-<version tag>
arm64✅arm64v8-<version tag>

版本标签

标签可用描述
latest✅稳定版本
gpu✅带Nvidia GPU支持的版本 (仅amd64)
gpu-legacy✅为Turing之前的显卡提供Nvidia GPU支持的旧版本 (仅amd64)

使用场景和适用范围

  • Home Assistant语音助手集成:作为本地语音转文本服务
  • 语音内容转录:将音频文件或实时音频转录为文本
  • 语音命令识别:用于构建本地语音控制应用
  • 多语言语音识别:支持多种语言的语音识别需求
  • 资源受限环境:通过-int8模型变体在低资源设备上运行

应用设置

Home Assistant集成

要与Home Assistant Assist 一起使用,添加Wyoming集成并提供Whisper运行的主机名/IP和端口。

GPU支持设置

使用带有Nvidia GPU的gpu标签时,确保将容器设置为使用nvidia运行时,并且在主机上安装了Nvidia Container Toolkit,并使用正确的GPU暴露设置运行容器。有关更多详细信息,请参阅Nvidia Container Toolkit文档。

只读操作

此镜像可以在只读容器文件系统下运行。有关详细信息,请阅读文档。

详细的使用方法和配置说明

Docker Compose (推荐)

---
services:
  faster-whisper:
    image: lscr.io/linuxserver/faster-whisper:latest
    container_name: faster-whisper
    environment:
      - PUID=1000
      - PGID=1000
      - TZ=Etc/UTC
      - WHISPER_MODEL=tiny-int8
      - LOCAL_ONLY= #可选
      - WHISPER_BEAM=1 #可选
      - WHISPER_LANG=en #可选
    volumes:
      - /path/to/faster-whisper/data:/config
    ports:
      - 10300:10300
    restart: unless-stopped

Docker CLI

docker run -d \
  --name=faster-whisper \
  -e PUID=1000 \
  -e PGID=1000 \
  -e TZ=Etc/UTC \
  -e WHISPER_MODEL=tiny-int8 \
  -e LOCAL_ONLY= `#可选` \
  -e WHISPER_BEAM=1 `#可选` \
  -e WHISPER_LANG=en `#可选` \
  -p 10300:10300 \
  -v /path/to/faster-whisper/data:/config \
  --restart unless-stopped \
  lscr.io/linuxserver/faster-whisper:latest

GPU支持的Docker Run示例

docker run -d \
  --name=faster-whisper \
  --runtime=nvidia \
  -e NVIDIA_VISIBLE_DEVICES=all \
  -e PUID=1000 \
  -e PGID=1000 \
  -e TZ=Etc/UTC \
  -e WHISPER_MODEL=base-int8 \
  -p 10300:10300 \
  -v /path/to/faster-whisper/data:/config \
  --restart unless-stopped \
  lscr.io/linuxserver/faster-whisper:gpu

参数说明

容器通过运行时传递的参数进行配置。这些参数用冒号分隔,表示<外部>:<内部>。例如,-p 8080:80会将容器内的80端口暴露到主机的8080端口。

网络参数

参数功能
-p 10300:10300Wyoming协议连接端口

环境变量

参数功能
-e PUID=1000用户ID - 详见下方说明
-e PGID=1000组ID - 详见下方说明
-e TZ=Etc/UTC指定时区,详见时区列表
-e WHISPER_MODEL=tiny-int8用于转录的Whisper模型。来自这里,所有模型都有-int8压缩变体
-e LOCAL_ONLY=如果设置为true或任何其他值,容器将不会尝试从HuggingFace下载模型,只使用本地提供的模型
-e WHISPER_BEAM=1转录期间同时考虑的候选数
-e WHISPER_LANG=en语音输入的语言
-e UMASK=022覆盖容器内服务的默认umask设置

卷参数

参数功能
-v /configWhisper配置文件和模型的本地路径

其他参数

参数功能
--read-only=true以只读文件系统运行容器。请阅读文档
--runtime=nvidia使用Nvidia运行时(仅GPU版本需要)
-e NVIDIA_VISIBLE_DEVICES=all暴露所有GPU(仅GPU版本需要)

环境变量从文件读取 (Docker secrets)

可以通过使用特殊的前缀FILE__从文件设置任何环境变量。

例如:

-e FILE__MYVAR=/run/secrets/mysecretvariable

这将根据/run/secrets/mysecretvariable文件的内容设置环境变量MYVAR。

用户/组标识符

使用卷(-v标志)时,主机操作系统和容器之间可能会出现权限问题。通过指定用户PUID和组PGID,可以避免此问题。

确保主机上的任何卷目录都由您指定的相同用户拥有,权限问题就会迎刃而解。

在此示例中PUID=1000和PGID=1000,可以使用id your_user命令查找您的用户ID和组ID:

id your_user

示例输出:

uid=1000(your_user) gid=1000(your_user) groups=1000(your_user)

Docker Mods

我们发布了各种Docker Mods以启用容器内的附加功能。可通过上方动态徽章访问此镜像可用的Mods列表以及可应用于任何LinuxServer.io镜像的通用Mods。

支持信息

  • 容器运行时的Shell访问:

    docker exec -it faster-whisper /bin/bash
    
  • 实时监控容器日志:

    docker logs -f faster-whisper
    
  • 容器版本号:

    docker inspect -f '{{ index .Config.Labels "build_version" }}' faster-whisper
    
  • 镜像版本号:

    docker inspect -f '{{ index .Config.Labels "build_version" }}' lscr.io/linuxserver/faster-whisper:latest
    

更新信息

大多数镜像都是静态的、版本化的,需要更新镜像并重新创建容器才能更新内部的应用程序。除了某些例外情况(在相关的readme.md中注明),我们不建议或支持在容器内更新应用程序。请查阅上方的应用设置部分,了解是否推荐对镜像进行更新。

使用Docker Compose更新

  • 更新镜像:

    • 所有镜像:

      docker-compose pull
      
    • 单个镜像:

      docker-compose pull faster-whisper
      
  • 更新容器:

    • 所有容器:

      docker-compose up -d
      
    • 单个容器:

      docker-compose up -d faster-whisper
      
  • 也可以删除旧的悬空镜像:

    docker image prune
    

使用Docker Run更新

  • 更新镜像:

    docker pull lscr.io/linuxserver/faster-whisper:latest
    
  • 停止运行中的容器:

    docker stop faster-whisper
    
  • 删除容器:

    docker rm faster-whisper
    
  • 使用上述相同的docker run参数重新创建新容器(如果正确映射到主机文件夹,您的/config文件夹和设置将被保留)

  • 也可以删除旧的悬空镜像:

    docker image prune
    

镜像更新通知 - Diun (Docker Image Update Notifier)

[!TIP] 我们推荐使用Diun进行更新通知。不推荐或支持其他自动更新容器的工具。

本地构建

如果您想对这些镜像进行本地修改以用于开发目的或自定义逻辑:

git clone [***]
cd docker-faster-whisper
docker build \
  --no-cache \
  --pull \
  -t lscr.io/linuxserver/faster-whisper:latest .

可以使用lscr.io/linuxserver/qemu-static在x86_64硬件上构建ARM变体,反之亦然:

docker run --rm --privileged lscr.io/linuxserver/qemu-static --reset

注册后,可以使用-f Dockerfile.aarch64指定要使用的dockerfile。

版本历史

  • 20.08.25: - 添加gpu-legacy分支,支持Turing之前的显卡
  • 10.08.25: - 添加本地模式支持
  • 30.12.24: - 为非GPU构建添加arm64支持
  • 05.12.24: - 从Github发布版构建,而非Pypi
  • 18.07.24: - 基于Ubuntu Noble重建
  • 19.05.24: - 在GPU分支上将CUDA升级到12
  • 08.01.24: - 添加GPU分支
  • 25.11.23: - 初始发布
查看更多 faster-whisper 相关镜像 →

常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像免费版与专业版有分别支持哪些镜像?

免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

轩辕镜像下载加速使用手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

🔐

登录方式进行 Docker 镜像下载加速教程

通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤

🐧

Linux Docker 镜像下载加速教程

在 Linux 系统上配置轩辕镜像源,支持主流发行版

🖥️

Windows/Mac Docker 镜像下载加速教程

在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统

📦

Docker Compose 镜像下载加速教程

在 Docker Compose 中使用轩辕镜像加速,支持容器编排

📋

K8s containerd 镜像下载加速教程

在 k8s 中配置 containerd 使用轩辕镜像加速

🔧

宝塔面板 Docker 镜像下载加速教程

在宝塔面板中配置轩辕镜像加速,提升服务器管理效率

💾

群晖 NAS Docker 镜像下载加速教程

在 Synology 群晖NAS系统中配置轩辕镜像加速

🐂

飞牛fnOS Docker 镜像下载加速教程

在飞牛fnOS系统中配置轩辕镜像加速

📱

极空间 NAS Docker 镜像下载加速教程

在极空间NAS中配置轩辕镜像加速

⚡

爱快路由 ikuai Docker 镜像下载加速教程

在爱快ikuai系统中配置轩辕镜像加速

🔗

绿联 NAS Docker 镜像下载加速教程

在绿联NAS系统中配置轩辕镜像加速

🌐

威联通 NAS Docker 镜像下载加速教程

在威联通NAS系统中配置轩辕镜像加速

📦

Podman Docker 镜像下载加速教程

在 Podman 中配置轩辕镜像加速,支持多系统

📚

ghcr、Quay、nvcr、k8s、gcr 等仓库下载镜像加速教程

配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤

🚀

专属域名方式进行 Docker 镜像下载加速教程

无需登录即可使用轩辕镜像加速服务,更加便捷高效

需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429

商务:17300950906
|©2024-2025 源码跳动
商务合作电话:17300950906|Copyright © 2024-2025 杭州源码跳动科技有限公司. All rights reserved.