
深度学习
向阳争渡
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
神经网络---数据预处理
数据预处理原创 2018-02-26 14:11:54 · 2661 阅读 · 0 评论 -
卷积神经网络
概述 简单描述 首先介绍神经网络的参数。这些参数是由一些可学习的滤波器集合构成的,每个滤波器在空间上(宽度和高度)都比较小个人觉得这个滤波器就是卷积核,但是深度和输入数据的深度保持一致。网络的第一层卷积一个典型的滤波器的尺寸是5 * 5 * 3(宽度高度深度),或者是3 * 3 * 3,这里的宽和高可以任意定义,但是深度必须是3,因为深度要和输入一致,而输入的图片是3通道的。在前向传播时,让...原创 2018-02-26 22:16:50 · 604 阅读 · 0 评论 -
对卷积神经网络中权值共享的理解
我的理解是: 在卷积神经网络中,卷积核内的一个卷积核(滤波器)用于提取一个特征(输入数据的一个维度),而输入数据具有多个特征(维度)的话,就会有很多个卷积核,那么在这一层的卷积层中就会有“参数爆炸”的情况。同时,一层中每个卷积核提取特征特定的特征,忽略了数据的局部相关性。 而参数共享的作用在于,每个特征具有平移不变性,同一个特征可以出现在出现在不同数据的不同位置,可以用同一个卷积核来提取这一特征。...原创 2018-11-06 18:06:55 · 9295 阅读 · 0 评论 -
Pytorch的骚操作
1. Pytorch的detach()、detach_() detach(): 返回一个新的 从当前图中分离的 Variable。 返回的 Variable 永远不会需要梯度 如果 被 detach 的Variable volatile=True, 那么 detach 出来的 volatile 也为 True 还有一个注意事项,即:返回的 Variable 和 被 detach 的Variable...原创 2019-03-06 10:58:34 · 283 阅读 · 0 评论