在Ubuntu下实现魔搭社区中的【Paraformer语音识别-中文-通用-16k-离线-large-onnx】

在Ubuntu下实现魔搭社区中的【Paraformer语音识别-中文-通用-16k-离线-large-onnx】

本文档只是为了记录本人第一次使用docker跑模型

默认已经在Ubuntu下安装好docker ,可以通过一下指令来查看是否已经安装成功docker

$ docker version
$ sudo docker version

1 环境搭建

如果是第一次使用这个模型,打开【Paraformer语音识别-中文-通用-16k-离线-large-onnx】 ,执行镜像启动服务端启动两个部分。

执行镜像启动,在主目录下会出现文件夹 funasr-runtime-resources
在这里插入图片描述
而终端则会进入镜像所创建的容器当中
终端显示
容器启动后,继续在终端继续执行服务端启动,启动成功后会出现如下输出
在这里插入图片描述

2 案例测试

继续在终端执行指令,获取案例测试包

$ wget https://isv-data.oss-cn-hangzhou.aliyuncs.com/ics/MaaS/ASR/sample/funasr_samples.tar.gz

此时,应该注意这里下载的是一个压缩文件,需要解压后才能对相关案例进行测试,否则会报错找不到文件,以下是解压指令

$ tar -zxvf funasr_samples.tar.gz

通过终端操作已经可以查看到需要测试的语音文件

在这里插入图片描述

随后只需要找到对应的python执行文件,在该文件路径下执行python文件即可,该文件所处路径为:
/FunASR/runtime/python/websocket

在这里插入图片描述
随后执行代码如下指令,这里需要注意的是,执行之前需要找到对应的python文件所处的文件夹,并在该文件夹下执行对应的python文件。只需要注意在运行测试案例的时候需要注意一下语音文件asr_example.wav所处的文件路径。

$ python3 funasr_wss_client.py --host "127.0.0.1" --port 10095 --mode offline --audio_in "../../samples/audio/asr_example.wav"

具体执行及测试结果如下所示:
在这里插入图片描述

最后可以通过 exit 退出容器

3 退出已创建的容器后再次进入容器

使用 docker ps 可以查看正在运行的容器,docker ps -a 可以查看所有已经创建好的容器

在这里插入图片描述

对于已经退出关闭的容器,若想要再次进入该容器,首先需要重启容器,然后再通过容器ID进入容器,具体执行命令如下:

$ docker restart 8a71a368994c      #重启容器,语法为: docker restart <CONTAINER ID>
$ dockers attach 8a71a368994c      #重连容器,语法为: docker attach <CONTAINER ID>

在这里插入图片描述

其他的 docker 使用方法可以查看 Docker容器使用

### 本地部署 FunASR 模型教程及配置说明 #### 创建 Python 虚拟环境并激活 为了确保依赖项不会影响其他项目,在开始之前创建一个新的 Python 3 虚拟环境是非常重要的。这可以通过以下命令完成: ```bash python3 -m venv funasr_env source funasr_env/bin/activate # Linux 或 macOS 用户 funasr_env\Scripts\activate # Windows 用户 ``` 一旦虚拟环境被成功激活,可以继续安装所需的库和工具。 #### 安装 FunASR 及其依赖包 接下来,通过 pip 工具来设置 FunASR 的运行环境。对于想要利用 ModelScope 中发布的预训练模型的情况,还需要额外安装 `modelscope` 库[^3]。 ```bash pip install git+https://github.com/alibaba/FunASR.git@main pip install -U modelscope ``` #### 获取模型权重文件 根据网络连接状况的不同,有两种方式可以获得必要的模型参数: - 对于能够访问互联网的机器,可以直接跳过此步骤,因为后续调用 API 时会自动拉取所需资源。 - 如果是在离线环境下工作,则需提前准备好这些文件,并将其放置在一个合适的位置以便稍后加载使用[^2]。 #### 编写简单的测试程序验证功能正常 最后一步是编写一段简短的 Python 程序来进行初步的功能检测。这段代码展示了如何定义一个推理管道以及执行一次实际的任务实例。 ```python from modelscope.pipelines import pipeline from modelscope.utils.constant import Tasks inference_pipeline = pipeline( task=Tasks.auto_speech_recognition, model='damo/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-pytorch', ) rec_result = inference_pipeline(audio_in='path_to_your_audio_file.wav') print(rec_result) ``` 以上就是完整的 Win10 平台上本地部署 FunASR 语音识别系统的指南[^1]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值