
神经网络
贝琪小飞
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
怎样选择损失函数
转载自作者:AI科技大本营链接:https://www.jianshu.com/p/04081201418d来源:简书【AI科技大本营导读】机器学习中的所有算法都依赖于最小化或最大化某一个函数,我们称之为“目标函数”。最小化的这组函数被称为“损失函数”。损失函数是衡量预测模型预测期望结果表现的指标。寻找函数最小值的最常用方法是“梯度下降”。把损失函数想象成起伏的山脉,梯度下降就像从山顶滑下...转载 2019-05-14 19:46:21 · 611 阅读 · 0 评论 -
双线性插值理解与Python实现
转载自https://blog.youkuaiyun.com/sinat_37011812/article/details/81842957双线性插值公式就是这么推来的,主要就是在x方向和y方向上都进行线性插值,利用临近点进行计算在计算的时候利用了几何中心对齐来优化原来的直接缩放__author__ = 'Alex Wang' import numpy as npimport cv2imp...转载 2019-05-20 20:45:36 · 1915 阅读 · 0 评论 -
反卷积的一些理解
网址1中文理解反卷积转载 2019-05-22 21:07:17 · 403 阅读 · 0 评论 -
TensorFlow中的batch_nomalization
tf.layers.batch_normalization 的使用BN使用要注意:1.一般在卷积层使用;2.一般在非线性激活之前使用;3.在训练时training=True, 在测试时training=False。注意:1.设training为一个feed的布尔值变量,在训练和测试时feed不同的值。2.在训练时,要把计算得到的均值和方差保存下来,方便测试时使用训练过程:with ...转载 2019-06-18 19:22:36 · 643 阅读 · 0 评论