
机器学习
Ghostkkkk
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
利用Fancy PCA做图像的data augmentation
Fancy PCA在AlexNet论文中出现,论文地址:ImageNet Classification with Deep Convolutional Neural Networks Fancy PCA用来对图像数据做data augmentation。 对比用随机增加图像像素强度(所有像素的RGB各加一个固定值)的效果图如下: Fancy PCA的做法是,对于每一张图片,利用PCA来找...原创 2020-04-15 22:48:44 · 1476 阅读 · 0 评论 -
Gram矩阵的理解
Gram矩阵实际上是各个向量(feature)之间的偏心协方差矩阵,即没有减去均值的协方差。 在CNNstyle transfer论文中,Gram矩阵用来产生Style picture和Generated picture间的误差函数: 这里Gram是 : 在feature map中,每个数字都是特定卷积核在特定位置做卷积得到...原创 2020-04-12 18:57:28 · 1033 阅读 · 0 评论 -
Batch Normalization的防止过拟合效果解释
在Batch Normalization中,由于我们使用mini-batch的均值与方差作为对整体训练样本均值与方差的估计,尽管每一个batch中的数据都是从总体样本中抽样得到,但不同mini-batch的均值与方差会有所不同,这就为学习过程中的数据增加了随机噪音,与Dropout通过关闭神经元给网络训练带来噪音类似,在一定程度上对模型起到了正则化的效果。 ...原创 2020-04-11 21:57:18 · 1206 阅读 · 0 评论 -
1*1卷积代替全连接层的含义
在某几篇博客(https://blog.youkuaiyun.com/qq_32172681/article/details/95971492)上看到了1*1卷积代替全连接层的解释,个人理解与其不同,参考了其他人的看法(https://www.zhihu.com/question/56824576、https://www.jianshu.com/p/f3ac0cc289c1)后在此留下笔记。 对于1*1...原创 2020-04-10 22:12:38 · 3528 阅读 · 3 评论 -
为什么逻辑回归可以识别数字
https://stats.stackexchange.com/questions/426873/how-does-a-simple-logistic-regression-model-achieve-a-92-classification-accurac原创 2020-02-17 23:48:20 · 213 阅读 · 0 评论