比 faster-whisper 至少快10倍的音视频转换文字

背景介绍

前两天我自己玩玩搞搞一个音频转文字服务,基于 faster-whisper,本想着这个已经是很快的了,没想到还有比它更快的,今天就来介绍使用一下。

FunClip,是阿里巴巴推出的一个智能视频剪辑工具,它结合了人工智能技术,特别是语音识别和自然语言处理,提供了一种全新的视频剪辑体验。通过集成阿里巴巴通义实验室的 FunASR Paraformer 系列模型,FunClip 能够对视频中的语音内容进行自动识别,并根据识别结果进行视频剪辑。

我们就是利用它的语音识别和自然语言处理的一部分功能,快速实现对音频,以及视频进行文字转录

注意:目前仅支持中文,后续有可能会迭代加入英文或者其他更多语言

GitHub项目地址:https://github.com/alibaba-damo-academy/FunClip

功能特点

1:语音识别与转录:FunClip 利用 FunASR Paraformer 系列模型进行视频语音的自动识别,并将语音转换为文字,支持热词定制化和说话人识别,提升了特定词汇的识别准确率,并能自动生成 SRT 字幕文件。
2:视频剪辑:用户可以根据识别结果中的文本片段或说话人,快速裁剪出所需视频片段。FunClip 支持多段剪辑,并提供了灵活的编辑能力,用户可以在剪辑过程中自由组合多个视频片段。
3:用户界面:FunClip 提供了简洁明了的用户界面,操作简单易懂,支持在服务端搭建服务,并通过浏览器进行视频剪辑。
4:部署方式:FunClip 支持本地部署,用户可以通过简单的命令行操作进行安装和启动。

本地部署

1:利用 git 或者 直接下载代码到本地,推荐使用git

	git clone https://github.com/alibaba-damo-academy/FunClip.git

2:安装依赖,需要本地有python环境,推荐python>=3.10

	cd FunClip
	pip install -r ./requirements.txt

3:启动项目服务,会自动下载所需模型以及依赖,集成了操作页面,可以访问返回的地址链接进行浏览器访问

	python funclip/launch.py

4:不依赖界面,使用命令行进行操作 -------------- 识别语音

	python funclip/videoclipper.py --stage 1 --file /data/sese.mp4 --output_dir ./output
	---------------------------------------------
	--file:你要识别的音视频文件目录地址
	--output_dir:生成的srt文件放到的文件夹

测试

使用一个233秒的音乐视频,从开始识别到输出结果,用了大概5秒钟,加上加载一些依赖,共用了14秒左右
(我的GPU服务器有点拉,配置好点的会更快)
在这里插入图片描述
这是生成的srt文件内容,会自动打点每句话的开始和结束时间
在这里插入图片描述

其他功能

1:识别说话人,可快速提取说话人的内容以及剪切说话人的所有镜头或者音频
2:自动加字幕
3:AI总结推理

结语

我是个开发者,比较喜欢用命令的方式调用,也粗读了一下项目代码,从入口文件 funclip/launch.py,里面有我觉得比较实用的定义的功能方法:

1:mix_recog:简单识别成文字

2:mix_recog_speaker : 识别成文字,并添加每句话是哪个说话人说的,带说话人的识别,srt里会有个spaker 的标识

3:mix_clip :剪切音视频的入口,可以根据说话内容和说话人进行定向剪切

4:llm_inference:用AI模型给你自动总结的,根据srt里的内容,你可以定义prompt,让AI给你提取内容剪切,推荐使用阿里的qwen系列,在阿里云百炼平台开通并拿到apikey,就能使用

5:AI_clip:智能剪切

😄😄😄😄😄😄😄😄😄😄😄😄😄😄其他更多功能自行发觉吧😄😄😄😄😄😄😄😄😄😄😄

### 类似于 WhisperDesktop 的 faster-whisper 工具介绍 faster-whisper 是一种基于 Whisper 模型的高性能语音转文字工具,它通过优化推理速度和降低资源消耗,为用户提供更、更高效的语音处理解决方案[^2]。以下将详细介绍 faster-whisper 的功能及其与 WhisperDesktop 的相似之处。 #### 功能特点 - **高效性**:faster-whisper 在保持高精度的同时显著提升了推理速度,适用于实时语音转文字场景。 - **多语言支持**:继承了 Whisper 模型的优势,faster-whisper 支持多达 99 种语言的转录任务,满足国际化需求[^4]。 - **离线运行**:无需依赖网络连接,所有处理均在本地完成,确保用户数据隐私。 - **灵活输出**:能够生成多种格式的结果文件,包括带时间戳的字幕文件(如 SRT)以及纯文本文件[^4]。 #### 技术实现 faster-whisper 利用 FasterTransformer 等技术对 Whisper 模型进行了深度优化,从而实现了更高的推理效率。以下是其核心实现方式: 1. **模型加速**:通过对 Transformer 架构进行剪枝、量化等操作来减少计算量,同时保持模型性能[^2]。 2. **并行计算**:充分利用现代硬件资源(如 GPU),通过并行化处理进一步缩短推理时间[^2]。 ```python from faster_whisper import WhisperModel # 加载模型 model = WhisperModel("large-v3", device="cuda", compute_type="float16") # 转录音频 segments, info = model.transcribe("example.wav") for segment in segments: print(f"[{segment.start:.2f}s -> {segment.end:.2f}s] {segment.text}") ``` #### 应用场景 faster-whisper 广泛应用于多个领域,例如客户服务中的实时语音转文字、医疗行业的病历记录自动化、教育领域的课堂笔记生成等[^2]。此外,在多语言会议记录、视频字幕制作等方面也表现出色[^5]。 #### 用户体验 faster-whisper 提供了一个简洁直观的图形界面,使得即使是非技术人员也能轻松上手[^1]。用户只需上传音频文件,选择目标语言及输出格式即可开始转换过程。 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值