- 博客(5)
- 收藏
- 关注
原创 Pytorch对应cuda版本安装
PyTorch安装版本选择要点:当主机CUDA版本为12.1时,因NVIDIA驱动向下兼容性,可优先选择CUDA12.6版本的PyTorch(需满足驱动要求),其次考虑11.8版本。关键区别:nvidia-smi显示驱动支持的最高CUDA版本,而nvcc -V才是实际安装的CUDA版本。
2025-10-15 09:00:00
1728
2
原创 paddlespeech tts更换音色(两种方式)
本文介绍了在PaddleSpeech中更换TTS音色的方法。主要通过命令行方式实现,即更换声学模型(AcousticModel)和声码器(Vocoder)参数,如使用--am、--voc参数指定模型,--spk_id指定说话人ID。同时提到可通过修改服务端配置文件来更换音色。虽然文中提到python方式,但为简洁仅详细说明命令行操作。最后指出尚不确定是否支持下载其他模型进行参数指定使用,建议感兴趣的用户自行尝试。
2025-10-14 09:00:00
326
1
原创 昇腾300I npu 部署paddlespeech tts 实现文本转语音功能
本文介绍了在paddle-npu Docker容器中部署PaddleSpeech的方法。作者因主机环境限制选择了Docker方案,详细讲解了两种启动容器的方式(直接运行和docker-compose),包括镜像下载、环境配置、目录挂载等步骤。进入容器后需调整Python版本至3.9,然后安装PaddleSpeech及相关依赖。最后提供了命令行测试和服务启动的验证方法,并提示需要下载nltk_data解决报错问题。该方案虽然非官方推荐路径,但有效解决了NPU环境下的PaddleSpeech部署问题。
2025-07-11 09:00:00
2269
2
原创 昇腾300I npu部署bge-m3 embedding模型
摘要:本文介绍了使用mis-tei镜像部署bge-m3模型的步骤。首先需申请并下载昇腾镜像仓库的mis-tei镜像,然后通过docker命令启动容器,配置环境变量、挂载目录等参数,指定entrypoint脚本。最后进行API测试,通过curl发送请求验证服务是否正常运行。部署过程需注意镜像版本、设备ID等配置参数的正确设置。全文提供了详细的命令行操作示例,便于开发者参考实施。(150字)
2025-07-08 09:00:00
1164
原创 昇腾300I npu部署deepseek32B模型
"modelWeightPath" : "/mnt/deepseek32b", //容器内模型的绝对路径。"maxIterTimes" : 8192, // 模型全局最大输出长度,[1, maxSeqLen-1]"modelName" : "deepseek_32b", //模型名称,请求时填入。"npuDeviceIds" : [[0,1,2,3]], //需要的npu设备ID。"ipAddress" : "xx.xx.xx.xx", //替换为自己的主机ip。第三步,调整模型目录中的配置文件。
2025-07-07 09:00:00
2037
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅