- 博客(9)
- 收藏
- 关注
原创 分类损失和回归损失
分类损失1、0-1 loss2、Cross Entropy loss3、Hinge Loss4、Modifined Huber Loss5、Softmax Loss6、Exponential Loss回归损失1、均方误差(MSE,又称L2损失)2、平均绝对误差(MAE,又称L1损失)3、Huber Loss (平滑的绝对损失)4、Log-cosh5、分位数损失...
2020-10-08 15:06:50
2118
原创 如何避免网络陷入局部最优
如何避免网络陷入局部最优1、多组随机初始化参数,选择结果最好的2、随机梯度下降法(因为随机因子存在)3、模拟退火法(允许在当前点的一定范围内寻找其他点,选择最优的)
2020-10-07 10:01:06
2464
原创 准确率,混淆矩阵
准确率(Accuracy 精确率(Precision) 灵敏度(Sensitivity)(Recall) 特异度(Specificity)真实值是positive,模型认为是positive的数量(True Positive=TP) 真实值是positive,模型认为是negative的数量(False Negative=FN) 真实值是negative,模型认为是positive的数量(False Positive=FP) 真实值是negative,模型认为是negative的数量(...
2020-10-06 11:15:54
672
原创 可以在这样解决过拟合!
过拟合的解决方法:1、正则化(L1,L2) L1:全部权重W的绝对值之和,乘以λ/n, L2:又名权重衰减。(全部权重W的平方和)/(训练集样本总数n)。λ是一个比例系数,表示正则项与原始loss(C0)的一个比重。1/2为了方便计算而已。L1、L2正则都可以让学习到的权重W变小,在某种意义上可以降低模型的复杂度。只不过L1通过绝对值最小的方式实现,而L2通过平方和最小的方式实现。L1会趋向于产生少量的特征,而其他的特征都是0,而L2会选择更多的特征,这些特征都会接近...
2020-10-06 10:24:35
309
1
转载 pytorch nn.conv2d
https://blog.youkuaiyun.com/g11d111/article/details/82665265https://blog.youkuaiyun.com/weixin_44750371/article/details/91126992
2019-10-03 17:00:49
198
转载 pytorch nn.upsample
https://www.cnblogs.com/wanghui-garcia/p/11399053.html
2019-10-03 15:23:18
809
原创 pytorch网络结构可视化
一、import torchimport torchvision.modelsimport hiddenlayer as hlmodel = VGG()##VGG换成对应的自己的网络结构,但是前面需要全部的网络结构hl.build_graph(model, torch.zeros([1, 3,480, 480]))#自定义一个初始输入二、model = VGG()x = to...
2019-10-03 11:33:32
681
转载 pytourch网络结构可视化1
https://mp.weixin.qq.com/s?__biz=MzUyMjE2MTE0Mw==&mid=2247487948&idx=1&sn=c28f8d087422a67a4c1df7a4f7c266d4&chksm=f9d14f54cea6c6420886cf6745c62f402c562d1ec7fbbc29531030b8960fb6a80dbc1e0...
2019-10-03 11:27:59
202
原创 Matlab 图像数据可视化
imagesc(data);如果data是复数域的,可以imagesc(abs(data));data是一组数据t = [1:1200]/1200*10*pi;a = sin(t);data = repmat(a,800,1);imagesc(data);%图像可视化colormap(gray);%灰度...
2019-10-03 11:26:08
1099
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅