
人工智能
小白丞丞
这个作者很懒,什么都没留下…
展开
-
卷积神经网络笔记(三)
1,卷积核确定需要考虑的问题?卷积核的尺寸,一般行数和列数相等,而且为了考虑填充padding,在周边补0,所以一般设置为奇数。卷积步长,一般设置为1,也可以设置为其他值。卷积核的值可以自定义,常见有sobel边缘算子矩阵和也可以初始化随机矩阵等。这个了解的不多。2,卷积神经网络的核心思想?就是通过自动学习的手段来得到各种 有用的卷积核值。卷积核代表了颜色特征,纹理特征,边缘等特征信息。所以一般设计为多层卷积,就是为了每层的卷积核负责提取不同的特征信息。3,池化层原理?特征图像的维数很高,维数高的原创 2020-05-19 20:55:23 · 283 阅读 · 0 评论 -
深度学习心得(二)
深度学习的基本思路?用人工神经网络自动学习有用的特征,去掉对人工特征的依赖,采用深度的神经网络建立复杂的 模型。至于为什么选择人工神经网络,而不用svm等算法,目前理解为那些网络不可变化更新是线性确定的。...原创 2020-05-19 17:26:37 · 930 阅读 · 0 评论 -
人工神经网络总结(一)
1,损失函数怎么选择?一般情况下,分类问题需要采用交叉熵作为损失函数。而回归问题一般采用欧氏距离作为损失函数。交叉熵损失函数:2,神经网络怎么进行权重初始化?一般采用随机数进行初始化,均匀分布,正态分布。暂时没有证据证明那种初始化方法更好,选择是一般选择最常用的就可以了。3,为什么需要学习率?一般怎么用?为了保证X的k+1点在Xk的の领域内,如此在泰勒展开时我们就可以忽略高阶无穷小项了。一般设置为接近于0(0.0001)的正数作为学习率。在常用框架tensorflow,caffa等中 ,还有自适应原创 2020-05-14 15:17:47 · 730 阅读 · 0 评论 -
神经网络理解心得
1,为什么需要激活函数?人工神经网络 要拟合和模拟的目标函数 很多是 非线性的 但神经网络多层复合函数 永远是线性的映射 达不到非线性的要求 所以需要非线性的激活函数激活一下 即 激活函数唯一的作用 就是保持非线性2,求欧氏距离 损失函数为什么乘1/2?只是为了求解简单 并且乘2/1后 并不影响整体求损失函数最小化的原则。...原创 2020-05-13 16:59:46 · 797 阅读 · 0 评论