无脑018——win11部署whisper,语音转文字

1.conda创建环境

conda create -n whisper python==3.9
conda activate whisper

安装pytorch

pip install torch==1.8.1+cu101 torchvision==0.9.1+cu101 torchaudio==0.8.1 -f https://download.pytorch.org/whl/torch_stable.html

安装whisper

pip install -U openai-whisper

2.准备模型和测试音频

因为我的电脑是GTX 1060 显存只有6G
最大运行的模型是medium
所以去官网下载medium.pt模型
连接在这里:
https://github.com/openai/whisper/blob/main/whisper/init.py
在这里插入图片描述
然后自己录制一段mp3格式的音频放在如下文件夹中
G:\desktop\whisper
在这里插入图片描述

3.语音转文字

3.1方法一:

打开conda窗口,进入该文件夹,
用command窗口执行的命令:

(whisper) G:\desktop\whisper>whisper test1.mp3 --model medium.pt
Detecting language using up to the first 30 seconds. Use `--language` to specify the language
Detected language: Chinese
[00:00.000 --> 00:06.700] 我现在正在测试OpenAI Whisper的翻译效 果
[00:06.700 --> 00:08.000] 这里是中文
[00:08.000 --> 00:09.300] 现在是英文
[00:09.300 --> 00:10.200] English
[00:10.200 --> 00:11.300] American
[00:11.300 --> 00:12.000] China
[00:12.000 --> 00:12.900] People
[00:14.400 --> 00:16.900] 现在录制时长是15分钟
[00:16.900 --> 00:21.500] Now this is 18 second
[00:22.000 --> 00:26.300] And we will wait for 1 minute
[00:26.600 --> 00:28.800] 我们要一直等到1分钟
[00:28.800 --> 00:30.200] 这个视频结束
[00:30.200 --> 00:34.800] 来测试一下长视频的长音频的翻译效果
[00:39.100 --> 00:50.700] 37 38 40 41 42 43 44 45 46 47 48 49 50
[00:50.700 --> 00:59.700] 5 4 3 2 1
[00:59.700 --> 01:01.200] 现在是1分钟
[01:01.200 --> 01:03.200] This is 1 minute
                           

3.2 方法二:

写一个python文件test.py调用:
test.py内容如下

import whisper
model = whisper.load_model("medium.pt")
result = model.transcribe("test1.mp3")
print(result["text"])

运行方式

(whisper) G:\desktop\whisper>python test.py
我现在正在测试OpenAI Whisper的翻译效果这里是中文现在是英文EnglishAmericanChinaPeople现在录制时长是15分钟Now this is 18 secondsAnd we will wait for 1 minute我们要一直等到1分钟这个视频结束来测试一下长视频的长音频的翻译效果3738404142434445464748495054321现在是1分钟This is 1 minute

3.3 两者的区别

用command输出自动给你按照时间分类了,python代码要自己补充
command输出其他的文件,其中test1.txt是保存的识别的文字
在这里插入图片描述
在这里插入图片描述

祝大家开心!

Whisper是一个开源的语音文字系统,它可以将语音信号换为对应的文本。在使用Whisper进行语音文字时,可以设置一些参数来优化换的效果。以下是一些常用的Whisper语音文字参数的介绍: 1. `sample_rate`:采样率,表示每秒钟采集的样本数。常见的采样率有8000、16000、44100等。 2. `frame_length`:帧长度,表示每一帧的音频信号的长度。通常使用的帧长度为20ms到40ms之间。 3. `hop_length`:帧移,表示相邻两帧之间的间隔。通常使用的帧移为10ms到20ms之间。 4. `n_fft`:傅里叶变换的窗口大小,用于将时域信号换为频域信号。通常使用的窗口大小为20ms到40ms之间。 5. `preemphasis_coefficient`:预加重系数,用于增强高频信号的能量。通常使用的预加重系数为0.95。 6. `min_level_db`和`ref_level_db`:用于控制音频信号的动态范围。`min_level_db`表示最小分贝数,`ref_level_db`表示参考分贝数。 7. `num_mels`:梅尔频率倒谱系数(Mel-frequency cepstral coefficients, MFCCs)的数量。通常使用的数量为80。 8. `fmin`和`fmax`:用于控制梅尔滤波器的频率范围。`fmin`表示最低频率,`fmax`表示最高频率。 9. `griffin_lim_iters`:Griffin-Lim算法的迭代次数,用于将梅尔频谱恢复为音频信号。 以上是一些常用的Whisper语音文字参数的介绍。根据具体的需求和场景,可以调整这些参数来获得更好的语音文字效果。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值