轩辕镜像
轩辕镜像专业版
个人中心搜索镜像
交易
充值流量我的订单
工具
工单支持镜像收录Run 助手IP 归属地密码生成Npm 源Pip 源
帮助
常见问题我要吐槽
其他
关于我们网站地图

官方QQ群: 13763429

轩辕镜像
镜像详情
jhj0517/whisper-webui
官方博客使用教程热门镜像工单支持
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。
所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。
轩辕镜像 - 国内开发者首选的专业 Docker 镜像下载加速服务平台 - 官方QQ群:13763429 👈点击免费获得技术支持。
本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。

本站支持搜索的镜像仓库:Docker Hub、gcr.io、ghcr.io、quay.io、k8s.gcr.io、registry.gcr.io、elastic.co、mcr.microsoft.com

whisper-webui Docker 镜像下载 - 轩辕镜像

whisper-webui 镜像详细信息和使用指南

whisper-webui 镜像标签列表和版本信息

whisper-webui 镜像拉取命令和加速下载

whisper-webui 镜像使用说明和配置指南

Docker 镜像加速服务 - 轩辕镜像平台

国内开发者首选的 Docker 镜像加速平台

极速拉取 Docker 镜像服务

相关 Docker 镜像推荐

热门 Docker 镜像下载

whisper-webui
jhj0517/whisper-webui

whisper-webui 镜像详细信息

whisper-webui 镜像标签列表

whisper-webui 镜像使用说明

whisper-webui 镜像拉取命令

Docker 镜像加速服务

轩辕镜像平台优势

镜像下载指南

相关 Docker 镜像推荐

通过GitHub Action自动推送的Whisper-WebUI项目镜像,提供基于Whisper的语音识别Web界面服务。
3 收藏0 次下载activejhj0517镜像
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源
中文简介版本下载
🚀轩辕镜像专业版更稳定💎一键安装 Docker 配置镜像源

whisper-webui 镜像详细说明

whisper-webui 使用指南

whisper-webui 配置说明

whisper-webui 官方文档

Whisper-WebUI Docker镜像文档

镜像概述

基本信息

  • 项目来源:基于GitHub仓库 jhj0517/Whisper-WebUI 构建
  • 构建方式:通过GitHub Action自动构建并推送(Automatically pushed via GitHub Action)
  • 镜像用途:提供Web界面的Whisper语音识别服务,封装OpenAI Whisper模型为可直接部署的Web应用,支持通过浏览器进行语音识别操作。

核心功能与特性

核心功能

  • Whisper模型集成:基于OpenAI Whisper语音识别模型,支持多语言语音转文字
  • Web界面交互:提供直观的浏览器操作界面,无需命令行操作
  • 多场景支持:支持本地语音文件上传(如MP3、WAV等格式)、实时麦克风输入转录
  • 模型灵活性:支持选择不同大小的Whisper模型(如base、small、medium、large)以平衡速度与精度

特性

  • 自动模型管理:首次启动时自动下载指定模型,支持模型缓存以减少重复下载
  • 多语言识别:支持Whisper原生支持的99种语言,可通过界面选择目标语言
  • 轻量化部署:基于Docker容器化,简化依赖管理,支持快速启动与停止
  • 配置可定制:通过环境变量调整服务端口、模型参数、输出格式等

使用场景与适用范围

适用场景

  • 个人用户:语音备忘录转文字、播客内容提取文本、学***资料语音转写
  • 内容创作:视频创作者自动生成字幕文本、音频内容快速索引
  • 团队协作:小型会议录音实时转录、访谈内容文字化存档
  • 开发测试:作为语音识别服务后端,集成至其他应用(如聊天机器人、辅助工具)

适用范围

  • 本地部署:个人电脑或服务器上通过Docker快速启动
  • 小型服务:为小团队提供内部语音识别Web服务
  • 开发环境:作为语音识别功能的测试依赖,加速应用开发

使用方法与配置说明

前置条件

  • 已安装Docker Engine(20.10+版本推荐)
  • 网络连接(首次启动需下载Whisper模型,模型大小根据选择从1GB到3GB不等)
  • 若需GPU加速:需安装nvidia-docker并确保主机GPU支持(仅项目支持时可用)

Docker Run命令示例

基础启动(默认模型:base,默认端口:7860)

docker run -d \
  --name whisper-webui \
  -p 7860:7860 \
  jhj0517/whisper-webui:latest

指定模型与语言(模型:small,语言:中文)

docker run -d \
  --name whisper-webui \
  -p 7860:7860 \
  -e MODEL_SIZE=small \
  -e DEFAULT_LANGUAGE=zh \
  jhj0517/whisper-webui:latest

挂载本地目录(模型缓存与上传文件持久化)

docker run -d \
  --name whisper-webui \
  -p 7860:7860 \
  -v ./model_cache:/app/models \  # 模型缓存目录(避免重复下载)
  -v ./uploads:/app/uploads \    # 上传文件存储目录
  -e MODEL_SIZE=medium \
  jhj0517/whisper-webui:latest

Docker Compose配置示例

创建docker-compose.yml文件:

version: '3.8'

services:
  whisper-webui:
    image: jhj0517/whisper-webui:latest
    container_name: whisper-webui
    ports:
      - "7860:7860"  # 主机端口:容器端口
    environment:
      - MODEL_SIZE=base  # 可选:base, small, medium, large
      - DEFAULT_LANGUAGE=auto  # 可选:auto, zh, en, ja等(auto为自动检测)
      - PORT=7860  # 容器内服务端口(需与-p映射一致)
      - CACHE_MODEL=true  # 是否缓存模型(默认true)
    volumes:
      - ./model_cache:/app/models  # 模型持久化目录
      - ./uploads:/app/uploads    # 上传文件存储目录
    restart: unless-stopped

启动命令:

docker-compose up -d

环境变量说明

环境变量名可选值/示例默认值说明
MODEL_SIZEbase, small, medium, largebase指定Whisper模型大小,越大精度越高但速度越慢
DEFAULT_LANGUAGEauto, zh, en, ja, frauto默认识别语言,auto为自动检测语言
PORT1024-655357860容器内Web服务监听端口
CACHE_MODELtrue, falsetrue是否缓存下载的模型文件至本地目录
MAX_FILE_SIZE100M, 500M200M最大上传文件大小(仅项目支持时生效)
API_KEY字符串空若项目支持API访问控制,用于鉴权的密钥

访问服务

服务启动后,通过浏览器访问:
http://<主机IP或localhost>:7860

界面功能说明:

  • 文件上传区:点击或拖拽语音文件(支持MP3、WAV、FLAC等格式)
  • 实时转录:点击麦克风图标进行实时语音输入转录
  • 模型设置:界面内可临时切换模型大小或目标语言(覆盖环境变量配置)
  • 结果导出:转录完成后可下载文本文件(TXT/SRT等格式,依项目支持)

数据持久化

为避免容器重建后丢失模型和上传文件,建议挂载以下目录:

  • 模型缓存目录:/app/models(存储下载的Whisper模型文件)
  • 上传文件目录:/app/uploads(存储用户上传的语音文件)

通过-v参数或docker-compose的volumes配置实现本地目录映射。

停止与卸载

# 停止容器
docker stop whisper-webui

# 删除容器
docker rm whisper-webui

# (可选)删除镜像
docker rmi jhj0517/whisper-webui:latest

# (若使用docker-compose)停止并删除容器
docker-compose down

更新日志与版本说明

该镜像通过GitHub Action自动构建,版本标签与项目Git提交关联,建议通过以下方式获取最新版本:

docker pull jhj0517/whisper-webui:latest

项目更新详情请参考原仓库:jhj0517/Whisper-WebUI 的Commit记录或Release说明。

查看更多 whisper-webui 相关镜像 →

常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像免费版与专业版有分别支持哪些镜像?

免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

轩辕镜像下载加速使用手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

🔐

登录方式进行 Docker 镜像下载加速教程

通过 Docker 登录方式配置轩辕镜像加速服务,包含7个详细步骤

🐧

Linux Docker 镜像下载加速教程

在 Linux 系统上配置轩辕镜像源,支持主流发行版

🖥️

Windows/Mac Docker 镜像下载加速教程

在 Docker Desktop 中配置轩辕镜像加速,适用于桌面系统

📦

Docker Compose 镜像下载加速教程

在 Docker Compose 中使用轩辕镜像加速,支持容器编排

📋

K8s containerd 镜像下载加速教程

在 k8s 中配置 containerd 使用轩辕镜像加速

🔧

宝塔面板 Docker 镜像下载加速教程

在宝塔面板中配置轩辕镜像加速,提升服务器管理效率

💾

群晖 NAS Docker 镜像下载加速教程

在 Synology 群晖NAS系统中配置轩辕镜像加速

🐂

飞牛fnOS Docker 镜像下载加速教程

在飞牛fnOS系统中配置轩辕镜像加速

📱

极空间 NAS Docker 镜像下载加速教程

在极空间NAS中配置轩辕镜像加速

⚡

爱快路由 ikuai Docker 镜像下载加速教程

在爱快ikuai系统中配置轩辕镜像加速

🔗

绿联 NAS Docker 镜像下载加速教程

在绿联NAS系统中配置轩辕镜像加速

🌐

威联通 NAS Docker 镜像下载加速教程

在威联通NAS系统中配置轩辕镜像加速

📦

Podman Docker 镜像下载加速教程

在 Podman 中配置轩辕镜像加速,支持多系统

📚

ghcr、Quay、nvcr、k8s、gcr 等仓库下载镜像加速教程

配置轩辕镜像加速9大主流镜像仓库,包含详细配置步骤

🚀

专属域名方式进行 Docker 镜像下载加速教程

无需登录即可使用轩辕镜像加速服务,更加便捷高效

需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429

商务:17300950906
|©2024-2025 源码跳动
商务合作电话:17300950906|Copyright © 2024-2025 杭州源码跳动科技有限公司. All rights reserved.