当前位置: 首页 > news >正文

WhisperX

文章目录

    • 一、关于 WhisperX
      • 新闻 🚨
    • 二、设置⚙️
      • 1、创建Python3.10环境
      • 2、安装PyTorch,例如Linux和Windows CUDA11.8:
      • 3、安装此repo
      • 4、Speaker Diarization
    • 三、使用💬(命令行)
      • 1、English
      • 2、他语言
        • 例如德语
    • 四、Python使用🐍
    • 五、Demos 🚀
    • 六、技术细节👷‍♂️
    • 七、限制⚠️


一、关于 WhisperX

WhisperX:具有字级时间戳的自动语音识别(和分类)

  • github : https://github.com/m-bain/whisperX
  • 联系支持:maxhbain@gmail.com

在这里插入图片描述


该存储库提供快速语音识别(70倍实时与big-v2)与字级时间戳和说话人分类。

  • ⚡批量推断70x实时转录使用耳语大v2
  • 🪶更快的耳语后端,需要<8GB的gpu内存用于beam_size=5的big-v2
  • 🎯使用wave 2vec2对齐准确的字级时间戳
  • 👯‍♂️多扬声器ASR使用来自pyannote音频的扬声器分类(扬声器ID标签)
  • 🗣️VAD预处理,减少幻觉和批处理,没有WER降解

Whisper 是一个ASR模型由OpenAI开发,在各种音频的大型数据集上进行训练。虽然它确实产生了高度准确的转录,但相应的时间戳是在话语级别,而不是每个单词,并且可能不准确几秒钟。OpenAI的耳语本身不支持批处理。

Phoneme-Based ASR(基于音素的ASR) 一套经过微调的模型,用于识别区分单词的最小语音单位,例如“tap”中的元素p。一个流行的示例模型是wav2vec2.0.

Forced Alignment(强制对齐) 是指将正交转录与录音对齐以自动生成手机级分割的过程。

语音活动检测(VAD) 是检测是否存在人类语音。

Speaker Diarization 是根据每个说话者的身份将包含人类语音的音频流划分为同质段的过程。


新闻 🚨

  • 第一名在Ego4d转录挑战🏆
  • WhisperX在INTERSPEECH 2023上被接受
  • V3成绩单segment-per-sentence:使用nltksent_tokenize更好的字幕和更好的分词
  • V3发布,70倍加速开源。使用批量耳语和更快的耳语后端!
  • v2发布,代码清理,导入耳语库VAD过滤现在默认打开,如论文所示。
  • 🎓👨‍🏫!请参阅我们的ArxiV预印本,了解WhisperX的基准测试和详细信息。我们还引入了更高效的批处理推理,从而产生*60-70x实时速度的big-v2。

二、设置⚙️

已针对PyTorch 2.0、Python 3.10进行测试(使用其他版本需自行承担风险!)

GPU执行需要在系统上安装NVIDIA库cuBLAS 11.x和cuDNN 8.x。请参阅 CTranslate2 documentation.


1、创建Python3.10环境

conda create --name whisperx python=3.10
conda activate whisperx

2、安装PyTorch,例如Linux和Windows CUDA11.8:

conda install pytorch==2.0.0 torchaudio==2.0.0 pytorch-cuda=11.8 -c pytorch -c nvidia

其他方法可见 这里。


3、安装此repo

pip install git+https://github.com/m-bain/whisperx.git

如果已安装,请将包更新为最近提交

pip install git+https://github.com/m-bain/whisperx.git --upgrade

如果希望修改此软件包,请以可编辑模式克隆并安装:

$ git clone https://github.com/m-bain/whisperX.git
$ cd whisperX
$ pip install -e .

您可能还需要安装ffmpeg、rust等。请在此处按照openAI说明进行操作 https://github.com/openai/whisper#setup


4、Speaker Diarization

启用 Speaker Diarization,请包含您可以从此处 生成的拥 Hugging Face token(read)在-hf_token参数之后,接受以下模型的用户协议:Segmentation和 Speaker-Diarization-3.1(如果您选择使用Speaker Diarization 2.x,请按照要求此处 操作替代)

:截至2023年10月11日,在WhatperX中存在一个关于pyannote/Speaker-Diarization-3.0性能缓慢的已知问题。这是由于更快的耳语和pyannote音频3.0.0之间的依赖冲突。有关更多详细信息和潜在的解决方法,请参阅此问题。


三、使用💬(命令行)


1、English

在示例段上运行耳语(使用默认参数,耳语小)添加 --highlight_words True 来可视化.srt 文件中的单词计时。

--highlight_words True
whisperx examples/sample01.wav

使用WhisperX强制对齐到wav2vec2.0大的结果:

sample01.mp4


将此与许多转录不同步的原始耳语进行比较:

sample_whisper_og.mov


为了提高时间戳的准确性,以更高的gpu mem为代价,使用更大的模型(更大的对齐模型没有那么有用,见论文)例如。

whisperx examples/sample01.wav --model large-v2 --align_model WAV2VEC2_ASR_LARGE_LV60K_960H --batch_size 4

要用说话者ID标记成绩单(如果已知,请设置说话者数量,例如-min_speakers 2, --max_speakers-2):

whisperx examples/sample01.wav --model large-v2 --diarize --highlight_words True

要在CPU而不是GPU上运行(以及在Mac OS X上运行):

whisperx examples/sample01.wav --compute_type int8


2、他语言

特定语言的自动挑选从torchaudio管道或huggingface--language``--model large

{en, fr, de, es, it, ja, zh, nl, uk, pt}拥抱脸模型集线器


例如德语
whisperx --model large-v2 --language de examples/sample_de_01.wav

sample_de_01_vis.mov

More EXAMPLES



四、Python使用🐍

import whisperx
import gc device = "cuda" 
audio_file = "audio.mp3"
batch_size = 16 # reduce if low on GPU mem
compute_type = "float16" # change to "int8" if low on GPU mem (may reduce accuracy)# 1. Transcribe with original whisper (batched)
model = whisperx.load_model("large-v2", device, compute_type=compute_type)# save model to local path (optional)
# model_dir = "/path/"
# model = whisperx.load_model("large-v2", device, compute_type=compute_type, download_root=model_dir)audio = whisperx.load_audio(audio_file)
result = model.transcribe(audio, batch_size=batch_size)
print(result["segments"]) # before alignment# delete model if low on GPU resources
# import gc; gc.collect(); torch.cuda.empty_cache(); del model# 2. Align whisper output
model_a, metadata = whisperx.load_align_model(language_code=result["language"], device=device)
result = whisperx.align(result["segments"], model_a, metadata, audio, device, return_char_alignments=False)print(result["segments"]) # after alignment# delete model if low on GPU resources
# import gc; gc.collect(); torch.cuda.empty_cache(); del model_a# 3. Assign speaker labels
diarize_model = whisperx.DiarizationPipeline(use_auth_token=YOUR_HF_TOKEN, device=device)# add min/max number of speakers if known
diarize_segments = diarize_model(audio)
# diarize_model(audio, min_speakers=min_speakers, max_speakers=max_speakers)result = whisperx.assign_word_speakers(diarize_segments, result)
print(diarize_segments)
print(result["segments"]) # segments are now assigned speaker IDs


五、Demos 🚀

https://replicate.com/victor-upmeet/whisperx
https://replicate.com/daanelson/whisperx
https://replicate.com/carnifexer/whisperx

如果您无法访问自己的GPU,请使用上面的链接试用WhisperX。


六、技术细节👷‍♂️

有关批处理和对齐、VAD的效果以及所选对齐模型的具体详细信息,请参阅预印本 paper.

要减少GPU内存需求,请尝试以下任何一项(2.&3.会影响质量):

  1. 减少批量大小,例如--batch_size 4
  2. 使用较小的ASR模型--model base
  3. 使用更轻的计算类型--compute_type int8

与openai耳语的转录差异:

  1. 没有时间戳的转录。要启用单程批处理,执行耳语推理--without_timestamps True,这确保了批处理中每个样本1次正向传递。但是,这可能会导致默认耳语输出的差异。
  2. 基于VAD的片段转录,不同于openai的缓冲转录。在Wthe WhisperX论文中,我们展示了这可以降低WER,并实现准确的批量推断
  3. --condition_on_prev_text默认设置为False(减少幻觉)

七、限制⚠️

  • 对齐模型字典中不包含字符的抄本单词,例如“2014”或“13.6英镑”无法对齐,因此没有给出时间。
  • 耳语或耳语不能很好地处理重叠的语言
  • 分类远非完美
  • 需要语言特定的wave 2vec2模型

2024-07-21(日)

相关文章:

  • 北京网站建设多少钱?
  • 辽宁网页制作哪家好_网站建设
  • 高端品牌网站建设_汉中网站制作
  • 《Nginx核心技术》第04章:生成缩略图
  • 7.19作业
  • 【网络】socket套接字基础知识
  • 【学习笔记】无人机系统(UAS)的连接、识别和跟踪(十)-无人机A2X服务
  • HTML2048小游戏
  • 【Apache Doris】周FAQ集锦:第 16 期
  • 【js自学打卡11】生成器函数(generator函数)的使用总结+代码举例
  • 力扣题解(盈利计划)
  • C++多继承与虚继承
  • Artix7系列FPGA实现SDI视频编解码+UDP以太网传输,基于GTP高速接口,提供工程源码和技术支持
  • Unity UGUI 之 Canvas画布
  • 深入理解TCP/IP协议中的三次握手
  • GD32 MCU是如何进入中断函数的
  • Android 10.0 蓝牙音乐获取歌手、歌曲等信息功能实现
  • 微服务重启优化kafka+EurekaNotificationServerListUpdater
  • Android路由框架AnnoRouter:使用Java接口来定义路由跳转
  • ES6简单总结(搭配简单的讲解和小案例)
  • gf框架之分页模块(五) - 自定义分页
  • Javascript编码规范
  • js数组之filter
  • Material Design
  • python 装饰器(一)
  • SpiderData 2019年2月13日 DApp数据排行榜
  • Spring框架之我见(三)——IOC、AOP
  • 初识MongoDB分片
  • 大型网站性能监测、分析与优化常见问题QA
  • 浮现式设计
  • 简单基于spring的redis配置(单机和集群模式)
  • 聊聊flink的BlobWriter
  • 深度学习入门:10门免费线上课程推荐
  • 微信小程序--------语音识别(前端自己也能玩)
  • 我从编程教室毕业
  • 译自由幺半群
  • TPG领衔财团投资轻奢珠宝品牌APM Monaco
  • ​RecSys 2022 | 面向人岗匹配的双向选择偏好建模
  • # 消息中间件 RocketMQ 高级功能和源码分析(七)
  • #pragam once 和 #ifndef 预编译头
  • #QT项目实战(天气预报)
  • #调用传感器数据_Flink使用函数之监控传感器温度上升提醒
  • ( )的作用是将计算机中的信息传送给用户,计算机应用基础 吉大15春学期《计算机应用基础》在线作业二及答案...
  • (备份) esp32 GPIO
  • (多级缓存)缓存同步
  • (二十四)Flask之flask-session组件
  • (附源码)ssm捐赠救助系统 毕业设计 060945
  • (推荐)叮当——中文语音对话机器人
  • (一)kafka实战——kafka源码编译启动
  • (源码分析)springsecurity认证授权
  • (轉貼) UML中文FAQ (OO) (UML)
  • .form文件_一篇文章学会文件上传
  • .net core 使用js,.net core 使用javascript,在.net core项目中怎么使用javascript
  • .NET Core 中插件式开发实现
  • .NET MAUI学习笔记——2.构建第一个程序_初级篇
  • .NET 将混合了多个不同平台(Windows Mac Linux)的文件 目录的路径格式化成同一个平台下的路径
  • .NET开发不可不知、不可不用的辅助类(一)
  • .NET连接MongoDB数据库实例教程