
机器学习
loving_coco
哈哈啊哈哈哈哈
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
机器学习之近似误差和估计误差
近似误差:可以理解为对现有训练集的训练误差。 近似误差,更关注于“训练”。 估计误差:可以理解为对测试集的测试误差。 估计误差,更关注于“测试”、“泛化”。 ...原创 2018-07-25 16:20:42 · 3787 阅读 · 0 评论 -
贝叶斯公式理解(先验概率/后验概率)
转载自https://www.cnblogs.com/ohshit/p/5629581.html(1)条件概率公式 设A,B是两个事件,且P(B)>0,则在事件B发生的条件下,事件A发生的条件概率(conditional probability)为: P(A|B)=P(AB)/P(B) (2)乘法公式 ...转载 2018-07-31 11:54:46 · 42193 阅读 · 3 评论 -
深度学习技巧(激活函数-BN-参数优化等等)
转自https://blog.youkuaiyun.com/myarrow/article/details/518482851. 深度学习技巧简介 1)一次性设置(One time setup) - 激活函数(Activation functions) - 数据预处理(Data Preprocessing) - 权重初始化(Weig...转载 2018-08-02 17:25:19 · 3592 阅读 · 0 评论 -
为什么要将全连接层转化为卷积层
转自:https://www.cnblogs.com/liuzhan709/p/9356960.html理解为什么要将全连接层转化为卷积层1.全连接层可以视作一种特殊的卷积考虑下面两种情况:特征图和全连接层相连,AlexNet经过五次池化后得到7*7*512的特征图,下一层全连接连向4096个神经元,这个过程可以看做有4096个7*7*512的卷积核和7*7*512的特征图进行卷积...转载 2018-12-02 14:57:14 · 1261 阅读 · 0 评论 -
理解:L1正则先验分布是Laplace分布,L2正则先验分布是Gaussian分布
转自:https://blog.youkuaiyun.com/m0_38045485/article/details/82147817L1、L2正则化来源推导L1L2的推导可以从两个角度:带约束条件的优化求解(拉格朗日乘子法)贝叶斯学派的:最大后验概率1.1 基于约束条件的最优化对于模型权重系数w的求解释通过最小化目标函数实现的,也就是求解:首先,模型的复杂度可以用VC来衡量。通常情况下,...转载 2018-12-02 15:40:09 · 1136 阅读 · 0 评论