linuxserver/faster-whisper 是基于 Faster-whisper 的Docker镜像。Faster-whisper是OpenAI Whisper模型的重新实现,使用CTranslate2作为Transformer模型的快速推理引擎。本容器提供了一个基于Wyoming协议的faster-whisper服务器,主要用于语音转文本(STT)任务。
LinuxServer.io团队提供的该容器具有以下特点:
该镜像利用docker manifest实现多平台支持。只需拉取 lscr.io/linuxserver/faster-whisper:latest 即可获取适合您架构的正确镜像,也可以通过标签拉取特定架构的镜像。
支持的架构:
| 架构 | 可用 | 标签 |
|---|---|---|
| x86-64 | ✅ | amd64-<version tag> |
| arm64 | ✅ | arm64v8-<version tag> |
| 标签 | 可用 | 描述 |
|---|---|---|
| latest | ✅ | 稳定版本 |
| gpu | ✅ | 带Nvidia GPU支持的版本 (仅amd64) |
| gpu-legacy | ✅ | 为Turing之前的显卡提供Nvidia GPU支持的旧版本 (仅amd64) |
要与Home Assistant Assist 一起使用,添加Wyoming集成并提供Whisper运行的主机名/IP和端口。
使用带有Nvidia GPU的gpu标签时,确保将容器设置为使用nvidia运行时,并且在主机上安装了Nvidia Container Toolkit,并使用正确的GPU暴露设置运行容器。有关更多详细信息,请参阅Nvidia Container Toolkit文档。
此镜像可以在只读容器文件系统下运行。有关详细信息,请阅读文档。
yaml--- services: faster-whisper: image: lscr.io/linuxserver/faster-whisper:latest container_name: faster-whisper environment: - PUID=1000 - PGID=1000 - TZ=Etc/UTC - WHISPER_MODEL=tiny-int8 - LOCAL_ONLY= #可选 - WHISPER_BEAM=1 #可选 - WHISPER_LANG=en #可选 volumes: - /path/to/faster-whisper/data:/config ports: - ***:*** restart: unless-stopped
bashdocker run -d \ --name=faster-whisper \ -e PUID=1000 \ -e PGID=1000 \ -e TZ=Etc/UTC \ -e WHISPER_MODEL=tiny-int8 \ -e LOCAL_ONLY= `#可选` \ -e WHISPER_BEAM=1 `#可选` \ -e WHISPER_LANG=en `#可选` \ -p ***:*** \ -v /path/to/faster-whisper/data:/config \ --restart unless-stopped \ lscr.io/linuxserver/faster-whisper:latest
bashdocker run -d \ --name=faster-whisper \ --runtime=nvidia \ -e NVIDIA_VISIBLE_DEVICES=all \ -e PUID=1000 \ -e PGID=1000 \ -e TZ=Etc/UTC \ -e WHISPER_MODEL=base-int8 \ -p ***:*** \ -v /path/to/faster-whisper/data:/config \ --restart unless-stopped \ lscr.io/linuxserver/faster-whisper:gpu
容器通过运行时传递的参数进行配置。这些参数用冒号分隔,表示<外部>:<内部>。例如,-p 8080:80会将容器内的80端口暴露到主机的8080端口。
| 参数 | 功能 |
|---|---|
-p ***:*** | Wyoming协议连接端口 |
| 参数 | 功能 |
|---|---|
-e PUID=1000 | 用户ID - 详见下方说明 |
-e PGID=1000 | 组ID - 详见下方说明 |
-e TZ=Etc/UTC | 指定时区,详见时区列表 |
-e WHISPER_MODEL=tiny-int8 | 用于转录的Whisper模型。来自这里,所有模型都有-int8压缩变体 |
-e LOCAL_ONLY= | 如果设置为true或任何其他值,容器将不会尝试从HuggingFace下载模型,只使用本地提供的模型 |
-e WHISPER_BEAM=1 | 转录期间同时考虑的候选数 |
-e WHISPER_LANG=en | 语音输入的语言 |
-e UMASK=022 | 覆盖容器内服务的默认umask设置 |
| 参数 | 功能 |
|---|---|
-v /config | Whisper配置文件和模型的本地路径 |
| 参数 | 功能 |
|---|---|
--read-only=true | 以只读文件系统运行容器。请阅读文档 |
--runtime=nvidia | 使用Nvidia运行时(仅GPU版本需要) |
-e NVIDIA_VISIBLE_DEVICES=all | 暴露所有GPU(仅GPU版本需要) |
可以通过使用特殊的前缀FILE__从文件设置任何环境变量。
例如:
bash-e FILE__MYVAR=/run/secrets/mysecretvariable
这将根据/run/secrets/mysecretvariable文件的内容设置环境变量MYVAR。
使用卷(-v标志)时,主机操作系统和容器之间可能会出现权限问题。通过指定用户PUID和组PGID,可以避免此问题。
确保主机上的任何卷目录都由您指定的相同用户拥有,权限问题就会迎刃而解。
在此示例中PUID=1000和PGID=1000,可以使用id your_user命令查找您的用户ID和组ID:
bashid your_user
示例输出:
textuid=1000(your_user) gid=1000(your_user) groups=1000(your_user)
我们发布了各种Docker Mods以启用容器内的附加功能。可通过上方动态徽章访问此镜像可用的Mods列表以及可应用于任何LinuxServer.io镜像的通用Mods。
容器运行时的Shell访问:
bashdocker exec -it faster-whisper /bin/bash
实时监控容器日志:
bashdocker logs -f faster-whisper
容器版本号:
bashdocker inspect -f '{{ index .Config.Labels "build_version" }}' faster-whisper
镜像版本号:
bashdocker inspect -f '{{ index .Config.Labels "build_version" }}' lscr.io/linuxserver/faster-whisper:latest
大多数镜像都是静态的、版本化的,需要更新镜像并重新创建容器才能更新内部的应用程序。除了某些例外情况(在相关的readme.md中注明),我们不建议或支持在容器内更新应用程序。请查阅上方的应用设置部分,了解是否推荐对镜像进行更新。
更新镜像:
所有镜像:
bashdocker-compose pull
单个镜像:
bashdocker-compose pull faster-whisper
更新容器:
所有容器:
bashdocker-compose up -d
单个容器:
bashdocker-compose up -d faster-whisper
也可以删除旧的悬空镜像:
bashdocker image prune
更新镜像:
bashdocker pull lscr.io/linuxserver/faster-whisper:latest
停止运行中的容器:
bashdocker stop faster-whisper
删除容器:
bashdocker rm faster-whisper
使用上述相同的docker run参数重新创建新容器(如果正确映射到主机文件夹,您的/config文件夹和设置将被保留)
也可以删除旧的悬空镜像:
bashdocker image prune
[!TIP] 我们推荐使用Diun进行更新通知。不推荐或支持其他自动更新容器的工具。
如果您想对这些镜像进行本地修改以用于开发目的或自定义逻辑:
bashgit clone [***] cd docker-faster-whisper docker build \ --no-cache \ --pull \ -t lscr.io/linuxserver/faster-whisper:latest .
可以使用lscr.io/linuxserver/qemu-static在x86_64硬件上构建ARM变体,反之亦然:
bashdocker run --rm --privileged lscr.io/linuxserver/qemu-static --reset
注册后,可以使用-f Dockerfile.aarch64指定要使用的dockerfile。
来自真实用户的反馈,见证轩辕镜像的优质服务
免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录认证访问私有仓库
在 Linux 系统配置镜像加速服务
在 Docker Desktop 配置镜像加速
Docker Compose 项目配置加速
Kubernetes 集群配置 Containerd
在宝塔面板一键配置镜像加速
Synology 群晖 NAS 配置加速
飞牛 fnOS 系统配置镜像加速
极空间 NAS 系统配置加速服务
爱快 iKuai 路由系统配置加速
绿联 NAS 系统配置镜像加速
QNAP 威联通 NAS 配置加速
Podman 容器引擎配置加速
HPC 科学计算容器配置加速
ghcr、Quay、nvcr 等镜像仓库
无需登录使用专属域名加速
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429