
机器学习
不断积累,不断进步!
高的好想出去玩啊
坚持学习,慢慢进步!
展开
-
tensorflow learning schedule之分段常数衰减用法
学习率在梯度下降法中,都是给定的统一的学习率,整个优化过程中都以确定的步长进行更新, 在迭代优化的前期中,学习率较大,则前进的步长就会较长,这时便能以较快的速度进行梯度下降,而在迭代优化的后期,逐步减小学习率的值,减小步长,这样将有助于算法的收敛,更容易接近最优解。故而如何对学习率的更新成为了研究者的关注点。 在模型优化中,常用到的几种学习率衰减方法有:分段常数衰减、多项式衰减、指数衰减、自然指数衰减、余弦衰减、线性余弦衰减、噪声线性余弦衰减。本文详细介绍分段常数衰减函数及其用法。tf.trai原创 2020-12-30 15:24:46 · 795 阅读 · 0 评论 -
This is most likely due to a Variable name or other graph key that is missing from the checkpoint. P
Restoring from checkpoint failed. This is most likely due to a Variable name or other graph key that is missing from the checkpoint. Please ensure that you have not altered the graph expected based on the checkpoint. Original error:具体报错见下图:上面报错的位置在我加载了之原创 2020-12-30 11:50:11 · 1571 阅读 · 0 评论 -
基于PyTorch的目标检测数据增强
关于目标检测的数据增强,该篇博客给了一个整体的框架,值得参考原创 2020-11-02 13:09:00 · 246 阅读 · 0 评论 -
网络训练时出现loss为nan的情况(已解决)
最近在使用SSD网络跑自己的数据集时,训练刚开始就出现loss=nan值的情况,经过多方查找资料,发现训练过程中loss出现nan值时,一般是下列问题导致的:数据集的问题,可能存在数据本身就存在nan值,或者标注box的坐标不符合要求,比如xmax<xmin(参考)网络结构的问题,可能网络本身设计不合理,如果是直接使用的开源代码,应该不会出现这个问题。学习率设置过高,可以设置不同的且相差较大的学习率来观察loss的变化,如果无论学习率如何变,loss始终还是nan值,可能就不是这个问原创 2020-10-30 23:22:48 · 17306 阅读 · 1 评论 -
错误提示:empty range for randrange() (0,-15, -15)
出现错误的原因是我的训练图片的尺寸小于数据增强时对图片进行crop的尺寸,改正后可以正常训练。原创 2020-08-27 22:15:10 · 1986 阅读 · 0 评论 -
运行代码时train_acc和val_acc均为0
部分代码如下:print('epoch %d, train_loss %.4f, train acc %.3f,test_loss %.4f, test acc %.3f, time %.1f sec' % (epoch + 1, train_loss / 2000 ,train_acc/2000,val_loss/800,val_acc/800, end_time-start_time))解决方法:设定train_acc和val_acc数据类型为double即可正常显示。print('epoch原创 2020-08-27 22:11:14 · 2966 阅读 · 0 评论 -
学习曲线 learning curve
学习曲线就是通过画出不同训练集大小时训练集和交叉验证的准确率,可以看到模型在训练集和验证集上的表现,进而可以判断模型是否过拟合了。具体的可参考这里我这里用随机森林画的学习曲线,具体代码如下:from sklearn.model_selection import learning_curvefrom sklearn.model_selection import ShuffleSplitimport matplotlib.pyplot as plt# learning_curvedef plo原创 2020-08-03 17:09:34 · 1295 阅读 · 0 评论