
nn
文章平均质量分 63
Pytorch-torch.nn
虾狗PhD
Phd渡劫中……(2/4)
展开
-
PyTorch基础(七)----- torch.nn.AdaptiveAvgPool2d()方法
一、方法简介方法含义:对张量应用一个自适应的平均池化,只需要输入输出的size即可。- torch.nn.AdaptiveAvgPool2d(output_size)参数及注意事项- 1.out_size可以是一个value值,也可以是一个元组(X,Y);- 2.如果是一个value值,则代表输出是一个方形的,其实等价于(X,X);- 3.如果是一个元组,则X,Y可以是一个int值,也可以是None;- 4.如果是None,则代表输出与输入位置的值相同;二、案例1原创 2021-03-29 20:50:37 · 2126 阅读 · 0 评论 -
PyTorch基础(13)-- torch.nn.Unfold()方法
一、方法详解方法torch.nn.Unfold(kernel_size, dilation=1, padding=0, stride=1)parameterskernel_size (int or tuple) – 滑动窗口的sizestride (int or tuple, optional) – 空间维度上滑动的步长,默认步长为1padding (int or tuple, optional) – implicit zero padding to be added原创 2021-05-13 11:12:48 · 4614 阅读 · 10 评论 -
PyTorch基础(12)-- torch.nn.BatchNorm2d()方法
Batch Normanlization简称BN,也就是数据归一化,对深度学习模型性能的提升有很大的帮助。BN的原理可以查阅我之前的一篇博客。白话详细解读(七)----- Batch Normalization。但为了该篇博客的完整性,在这里简单介绍一下BN。一、BN的原理BN的基本思想其实相当直观:因为深层神经网络在做非线性变换前的激活输入值(就是那个x=WU+B,U是输入)随着网络深度加深或者在训练过程中,其分布逐渐发生偏移或者变动,之所以训练收敛慢,一般是整体分布逐渐往非线性函数的取值区间的上下限原创 2021-05-06 16:01:13 · 8138 阅读 · 3 评论