
神经网络
白青刚
这个作者很懒,什么都没留下…
展开
-
残差神经网络分析
知乎地址https://zhuanlan.zhihu.com/p/80226180转载 2020-10-05 21:26:41 · 297 阅读 · 0 评论 -
认识机器学习与深度学习的区别(流程算法)
深度学习与机器学习的区别https://blog.youkuaiyun.com/weixin_42008209/article/details/82714728认识机器学习与深度学习的区别https://www.cnblogs.com/zhouwenfan-home/p/10328500.html原创 2020-10-02 20:28:40 · 267 阅读 · 0 评论 -
如何理解Python中“if __name__==‘__main__‘:”
阅读目录1 引言2 程序入口3 模块导入4 “name”与“main”5 总结1 引言 在Python当中,如果代码写得规范一些,通常会写上一句“if name==’main:”作为程序的入口,但似乎没有这么一句代码,程序也能正常运行。这句代码多余吗?原理又在哪里?本篇博文对此进行总结说明。2 程序入口学过Java、C、C++的程序员应该都知道,每次开启一个程序,都必须写一个主函数作为程序的入口,也就是我们常说的main函数。如下所示, main()就是Java中的一个main函数。p原创 2020-09-16 11:25:47 · 209 阅读 · 0 评论 -
Keras框架下用.flow_from_directoryt自己构建数据集
Keras框架下用.flow_from_directoryt自己构建数据集地址:https://www.cnblogs.com/hujinzhou/p/12368926.html转载 2020-09-07 21:19:52 · 303 阅读 · 0 评论 -
keras ImageDataGenerator使用
什么是数据不均衡问题这里简单说明一下,重点是操作和应用:1、数据不均衡问题2、常见的解决方法函数说明准备工作功能说明参数说明参数完整代码效果展示总结什么是数据不均衡问题详细说明,请参考:https://blog.youkuaiyun.com/Yaphat/article/details/60348946这里简单说明一下,重点是操作和应用:1、数据不均衡问题在大部分情况下,我们认为不同类别的数据是均匀分布的,很多算法也是基于这个假设,但是在真实的情况下,往往都不是如此的。例如,机器发送故障的情况是我们想要预测的原创 2020-09-07 21:16:58 · 582 阅读 · 0 评论 -
上采样和下采样|神经网络
缩小图像(或称为下采样(subsampled)或降采样(downsampled))的主要目的有两个:1、使得图像符合显示区域的大小;2、生成对应图像的缩略图。放大图像(或称为上采样(upsampling)或图像插值(interpolating))的主要目的是放大原图像,从而可以显示在更高分辨率的显示设备上。对图像的缩放操作并不能带来更多关于该图像的信息, 因此图像的质量将不可避免地受到影响。然而,确实有一些缩放方法能够增加图像的信息,从而使得缩放后的图像质量超过原图质量的。下采样原理:对于一副图像I尺原创 2020-09-06 22:03:21 · 2318 阅读 · 0 评论 -
python 字典(Dictionary)操作
**字典是另一种可变容器模型,且可存储任意类型对象。 字典的每个键值 key=>value 对用冒号 : 分割,每个键值对之间用逗号 , 分割,整个字典包括在花括号 {} 中 ,格式如下所示:**d = {key1 : value1, key2 : value2 }>>> dict = {'a': 1, 'b': 2, 'b': '3'}>>> dict['b']'3'>>> dict{'a': 1, 'b': '3'}删除字原创 2020-08-23 20:47:28 · 233 阅读 · 0 评论 -
Keras各种layer的作用及用法--简要总结(不断更新中)
BatchNormalization layer:通常在线性向非线性转变时使用,如下:model.add(Dense(100,input_dim=20))model.add(BatchNormalization())model.add(Activation('relu'))作用:能够保证权重的尺度不变,因为BatchNormalization在激活函数前对输入进行了标准化另一个流行的做法:在2D卷积与激活函数前,进行Normalization,如下:def Conv2DReluBat.转载 2020-07-23 10:06:31 · 1476 阅读 · 0 评论