- 博客(9)
- 收藏
- 关注
原创 pytorch 中的 ConvTranspose2d
torch.nn.ConvTranspose2d(in_channels, out_channels, kernel_size, stride=1, padding=0) 逆卷积包含两步,先对原 tensor 进行 上采样,然后再进行一次常规的卷积操作。 上采样:每两行(列)之间插入()个零行(列); 周边zero-padding,。 卷积操作:以输入的, 步长始终为1(和输入的stride的值无关)。 新特征的大小: Ref: ...
2020-07-03 12:51:48
2620
原创 对 np.transpose() 的理解
np.transpose(x, (1, 2, 0)) 按照指定的axis顺序对array x 进行索引,若x中某个元素的index是(x1, x2, x3),则经上面变换以后其index变为(x2, x3, x0)。易知,np.transpose(x, (0, 1, 2))和 x 相同。 在pytorch中图片的像素点是按照(c, H, W)排列的,我们可以利用上述变换将像素点按照(H, W, c)排布,从而使plt.imshow()可以读取。 ...
2020-07-02 16:42:48
533
原创 pytorch 的常见用法
1. torchvision.transforms用法介绍 https://www.jianshu.com/p/1ae863c1e66d 2. model summary https://stackoverflow.com/questions/42480111/model-summary-in-pytorch 3. a.mul(b) , a与b对应元素相乘; a.mm(b), a与b矩阵相...
2019-12-03 17:56:07
216
原创 Machine Learning_Resources
Kernel Method, by 李政轩 https://www.youtube.com/watch?v=p4t6O9uRX-U&list=PLt0SBi1p7xrRKE2us8doqryRou6eDYEOy ——相关博客: https://blog.youkuaiyun.com/baimafujinji/article/details/79372911 ...
2019-06-24 09:46:48
164
原创 Anomaly Detection_Resources
1. collections [1]. 缺陷检测论文,by 庆志的小徒弟 https://blog.youkuaiyun.com/qq_27871973/article/details/85284757 [2]. Awesome anomaly detection, in Github https://github.com/hoya012/awesome-anomaly-detection [3]....
2019-06-04 22:37:36
346
转载 关于深度学习中的注意力机制,这篇文章从实例到原理都帮你参透了
最近两年,注意力模型(Attention Model)被广泛使用在自然语言处理、图像识别及语音识别等各种不同类型的深度学习任务中,是深度学习技术中最值得关注与深入了解的核心技术之一。 本文以机器翻译为例,深入浅出地介绍了深度学习中注意力机制的原理及关键计算机制,同时也抽象出其本质思想,并介绍了注...
2019-03-28 16:13:24
1485
原创 LSTM
简言之,LSTM对过去()选择性地遗忘, 对当前输入()选择性地吸收,生成当前记忆(),同时有选择性地输出()。选择基于和前一输出. [1] Understanding LSTM Networks http://colah.github.io/posts/2015-08-Understanding-LSTMs/ [2] 人人都能看懂的LSTM https:...
2019-03-26 12:03:51
165
转载 CNN
卷积神经网络https://blog.youkuaiyun.com/stdcoutzyx/article/details/41596663 如何理解卷积和 poolinghttps://www.cnblogs.com/baiting/p/6101981.html
2019-03-15 16:49:06
121
转载 转载:计算机视觉中的注意力机制
一篇关于计算机视觉中的注意力机制的博客: https://zr9558.com/2019/01/23/attentioninimagerecognition/ Quora1:What is Attention Mechanism in Neural Networks? https://www.quora.com/What-is-Attention-Mechanism-in-Neural...
2019-03-13 12:01:27
330
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅