- 博客(1)
- 收藏
- 关注
原创 【解决llama-factory导出并量化模型时爆显存】
即可,本质上这个问题是通过将模型放在cpu上加载,gpu上量化解决的。导出模型后记得改回来,万一以后能用上更大显存的服务器呢?这时候在cpu上加载模型就是浪费时间了。服务器GPU是3090Ti-24G,用llama-factory来QLoRA微调Qwen2.5-14B-Instruct之后就该导出模型了。主要原因是直接在gpu上加载了高精度模型。
2025-04-23 16:02:06
701
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅