建议微调初学者们不要用web-ui训练

部署运行你感兴趣的模型镜像

血的教训家人们

折磨了3天终于把模型训练起来了

如果你遇到这些问题(对于未启用这些功能摸不着头脑的初学者来说):

  1. 1.CUDA启动失败,但GPU可用(CUDA Setup failed despite GPU being available. Inspect the CUDA SETUP outputs above to fix your environment!
  2. If you cannot find any issues and suspect a bug, please open an issue with detals about your environment:)
  3. .FileExistsError: [WinError 183] 当文件已存在时,无法创建该文件。
  4. torch.OutOfMemoryError: CUDA out of memory. Tried to allocate 44.00 MiB. GPU 0 has a total capacity of 22.00 GiB of which 17.97 GiB is free. Of the allocated memory 2.78 GiB is allocated by PyTorch, and 61.81 MiB is reserved by PyTorch but unallocated. If reserved but unallocated memory is large try setting PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True to avoid fragmentation.  See documentation for Memory Management ...
  5. module ‘torch.library‘ has no attribute ‘register_fake‘
  6. 报错numpy必须<2.0.0
  7. 未检测到deepseepd(针对于初学者未启用的情况)
  8. loss一直等于0
  9. 加载“\lib\site-packages\torch\lib\shm.dll”或其依赖项之一时出错
  10. deepspeed安装报错 No module named ‘dskernels
  11. 没有经过微调的模型胡乱回答,乱码

如果你是初学者,对这些东西完全摸不着头脑,建议使用ms-swift的python代码进行训练!不要使用wei-ui!

最简示例:

# Experimental environment: RTX 2080 Ti 22G
# 22GB GPU memory
import os
os.environ['CUDA_VISIBLE_DEVICES'] = '0'

import torch

from swift.llm import (
    DatasetName, InferArguments, ModelType, SftArguments,
    infer_main, sft_main, app_ui_main, merge_lora_main
)

model_type = ModelType.qwen2_5_coder_7b_instruct # 改成你的模型的类型
sft_args = SftArguments(
    model_type=model_type,
    model_id_or_path="D:/LLaMA_Factory/Qwen/Qwen25Coder7B", # 改成你的本地模型路径
    train_dataset_sample=2000,
    dataset="D:/LLaMA_Factory/data/zh_INFJ_self_awareness.json", # 改成你的数据集路径
    output_dir='output')
result = sft_main(sft_args)
best_model_checkpoint = result['best_model_checkpoint']
print(f'best_model_checkpoint: {best_model_checkpoint}')
torch.cuda.empty_cache()

infer_args = InferArguments(
    ckpt_dir=best_model_checkpoint,
    load_dataset_config=True,
    show_dataset_sample=10)
# merge_lora_main(infer_args)
result = infer_main(infer_args)
torch.cuda.empty_cache()

app_ui_main(infer_args)

其实并没有想象中那么难对吧!

只需要更改这3个参数,小白都能把模型跑起来!

运行效果: 

7666fcb512a14ddd87ef63d468dbb496.png

注意!千万不要在VS code等IDE中运行代码,必须通过命令行运行py文件!否则会卡死!

python xxx.py

附:ms-swift官方文档 、训练微调教程

以上就是本文的全部内容

(本文是作者花了3天在本地机和云服务器、分别在windows10、windows11、windowsServer2022尝试,翻阅了数千个网站得出的经验)

(由于作者也是初学者,本文可能存在不足之处,请多多指出!)

您可能感兴趣的与本文相关的镜像

Python3.11

Python3.11

Conda
Python

Python 是一种高级、解释型、通用的编程语言,以其简洁易读的语法而闻名,适用于广泛的应用,包括Web开发、数据分析、人工智能和自动化脚本

<think>好的,我现在需要帮助用户了解RVC-WebUI的使用方法。根据用户提供的引用内容,我需要结合这些信息来构建一个步骤指南。首先,我需要确认这些引用是否提供了足够的安装和基本使用信息。引用1提到启动和探索的基本指南,引用2和3是关于安装和配置的指南。用户可能已经完成了安装,现在需要使用的具体步骤。 接下来,我应该整理出使用RVC-WebUI的主要步骤。通常,这类工具的使用流程包括准备数据、模型训练、模型推理(语音转换)等步骤。需要确保每一步都清晰,并参考用户提供的引用内容中的要点。 例如,引用3提到需要查阅官方文档和更新日志,所以在步骤中应该建议用户参考官方资源。同时,引用2提到了安装后的训练和转换步骤,可能涉及配置界面和模型选择。需要注意使用中文,并按照系统级指令中的格式要求,比如行内数学表达式用$...$,但在这个问题中可能涉及较少数学内容,更多是操作步骤。 还需要生成相关问题,可能涉及优化方法、常见问题解决等。要确保回答结构清晰,分步骤说明,并且引用正确的位置。例如,在数据准备阶段,引用3提到环境配置和数据集结构,可能需要详细说明。 另外,用户的问题可能包括如何启动WebUI界面,如何上传数据,训练模型的具体参数设置,以及如何进行语音转换。需要检查引用内容是否有这些信息,引用1提到启动和探索的基本指南,引用2有训练和转换的步骤,引用3提到数据集准备和环境配置。 可能需要将步骤分为安装后的启动、数据准备、模型训练、语音转换等部分。每个步骤需要详细说明,但要注意不要过于技术化,保持对初学者的友好。同时,提醒用户注意官方文档的重要性,因为工具可能有更新,步骤会有变化。 最后,生成的相关问题要围绕用户可能遇到的后续疑问,比如性能优化、参数调整、错误处理等,确保覆盖用户可能的需求。需要确保所有引用标注正确,比如在提到官方文档时引用对应的引用1或3。</think>### RVC-WebUI 使用教程步骤指南 #### 一、环境启动与界面访问 1. **启动WebUI** 完成安装后,在项目根目录运行启动命令(例如`python app.py`),控制台会显示本地访问地址(通常为`http://localhost:7860`)。 通过浏览器打开该链接即可进入交互界面。引用[^2]提到需确保Python环境和依赖库已正确配置。 2. **界面功能分区** 主界面通常包含以下模块: - **模型训练区**:上传数据集、配置训练参数 - **语音转换区**:选择模型、输入音频、调整音色参数 - **模型管理区**:查看已训练模型、删除或导出模型 --- #### 二、语音模型训练步骤 1. **准备数据集** - 数据集要求: - 格式为WAV,采样率建议24000Hz - 单段音频时长2-10秒,总时长建议≥10分钟 - 按说话人分类存放(例如`/dataset/speaker_A/*.wav`) - 引用[^3]强调需**去除背景噪声**和**静音片段**以保证质量。 2. **配置训练参数** | 参数项 | 建议值 | 说明 | |--------------|-------------|--------------------------| | 训练轮数 | 100-200 | 过少欠拟合,过多可能过拟合 | | 批量大小 | 8-16 | 根据显存调整 | | 学习率 | 0.0001 | 可微调但需保持稳定 | | 音高提取算法 | Harvest | 常规选择,效果稳定 | 3. **启动训练** - 上传数据集路径 - 填写模型名称(英文命名) - 点击`Start Training`,控制台会显示实时进度 - 训练完成后模型自动保存在`/weights`目录下 --- #### 三、语音转换实操 1. **基础转换流程** ```python # 伪代码示例 from rvc_infer import vc_single vc_single( input_path="test.wav", model_path="model.pth", f0_up_key=0, # 音调升降 f0_method="harvest", output_path="output.wav" ) ``` - 通过界面操作时: 1. 在`Inference`标签页选择预训练模型 2. 上传/录制待转换音频 3. 调节`Pitch Shift`控制音高(半音为单位) 4. 点击`Convert`生成结果 2. **高级参数调节** - **音色混合比例**:通过`Voice Mixing Ratio`控制原声与目标音色的混合程度 - **呼吸声保留**:启用`Breath Retention`可保持更自然的发声特征 - **实时变声**:启用`Realtime Processing`模式需配合ASIO声卡驱动 --- #### 四、常见问题处理 1. **训练报错`CUDA内存不足`** - 降低批量大小(batch_size) - 使用`--fp16`启用半精度训练 - 参考建议检查PyTorch版本与CUDA的兼容性 2. **转换结果有杂音** - 检查输入音频是否包含噪声 - 尝试更换音高提取算法(如改用Crepe) - 适当降低`Voiceless Consonant Protection`参数值 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值