深度学习
AndyFlyingZZZ
讨厌全局变量
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
神经网络中的激活函数总结
ReLU及其变种ReLU激活函数在卷积神经网络中表现良好,运算速度快。RELUf(x)=max(0,x){f{ \left( {x} \right) } =max{ \left( {0,x} \right) } } f(x)=max(0,x)RELU6f(x)=min(max(0,x),6){f{ \left( {x} \right) } =min{ \left( {max{...原创 2019-10-28 21:43:00 · 558 阅读 · 0 评论 -
深度学习入门项目完整流程——图片制作数据集、训练网络、测试准确率(TensorFlow+keras)
首先将训练的图片和标签制作成数据集,我用的是numpy库里的savez函数,可以将numpy数组保存为.npz文件(无压缩,所以文件较大)。import cv2 as cvimport numpy as npimport osimport glob#调整图像的大小、制作数据集def img_process(subpath,path_list): print('This is',su...原创 2018-11-10 10:37:22 · 6555 阅读 · 0 评论 -
深度学习调试网络时常用的优化算法总结
自己的小项目在实际调试中出现过的优化模型的算法,这里做一个总结。1、 学习率调整(避免欠拟合)2、 正则化(避免过拟合)3、 Dropout(避免过拟合)4、 提前终止(避免过拟合)学习率调整:在训练网络的时候,已不变的学习率学习往往不能找到最优解,从而使loss值不在下降,可以使用动态学习率调整的方法,也就是说每次训练完一个batch或者一轮epoch,学习率就下降一点。下降的多少可...原创 2018-11-16 17:34:32 · 489 阅读 · 0 评论
分享