
pytorch
文章平均质量分 77
NineDays66
email:547691062@qq.com
展开
-
yolov5 导出onnx 忽略检测层
yolov5原创 2023-02-16 17:22:07 · 628 阅读 · 0 评论 -
pytorch Finetune和各层定制学习率
文章目录一、Finetune之权值初始化第一步:保存模型参数第二步:加载模型第三步:初始化二、不同层设置不同的学习率补充:我们知道一个良好的权值初始化,可以使收敛速度加快,甚至可以获得更好的精度。而在实际应用中,我们通常采用一个已经训练模型的模型的权值参数作为我们模型的初始化参数,也称之为Finetune,更宽泛的称之为迁移学习。迁移学习中的Finetune技术,本质上就是让我们新...原创 2019-12-30 10:25:56 · 606 阅读 · 0 评论 -
整合Pytorch和MNN的嵌入式部署流程
https://zhuanlan.zhihu.com/p/76605363https://zhuanlan.zhihu.com/p/76605363https://zhuanlan.zhihu.com/p/76605363工程的完整链接可以参考Github链接。Pytorch以其动态图的调用方式,深得许多科研人员的喜爱,是许多人进行科研研究、算法预研的不二之选。本文我们跟大家讨论一...原创 2019-12-05 11:27:37 · 2918 阅读 · 0 评论 -
pytorch常见问题
单机多卡训练 及多机多卡训练https://zhuanlan.zhihu.com/p/86441879网络初始化def weights_init(m): if isinstance(m, nn.Conv2d) or isinstance(m, nn.Linear): nn.init.xavier_uniform_(m.weight.data) ...原创 2019-10-15 18:01:42 · 284 阅读 · 0 评论 -
Pytorch中的学习率衰减方法
Pytorch 中的学习率调整方法Pytorch中的学习率调整有两种方式:直接修改optimizer中的lr参数; 利用lr_scheduler()提供的几种衰减函数1. 修改optimizer中的lr:import torchimport matplotlib.pyplot as plt%matplotlib inlinefrom torch.optim import *...原创 2019-10-14 15:26:26 · 1326 阅读 · 0 评论