卷积神经网络
文章平均质量分 73
月光下的小白兔✘
在水一方
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
pytorch中Convolutional Neural Networks的真正计算过程与理解
关于Convolutional Neural Networks的真正理解一般Convolutional Neural Networks包含卷积层,BN层,激活层以及池化层。池化层较为简单,不再赘述。借此机会详细的介绍其他三层是如何实现的,以及如何自定义卷积层参数。Convolution layer网上写卷积的博客不计其数,大都是长篇大论,其实卷积十分简单,见下图。上图所示输入为 【5,5 ,1】 的图像,卷积核大小为 3 * 3,步长为1 【一步一步走】,padding=0【如果为1会在图像外面补原创 2021-09-30 22:03:49 · 680 阅读 · 0 评论 -
pytorch中归一化transforms.Normalize的真正计算过程
关于transforms.Normalize的真正理解问题transform.ToTensor()代码示例transforms.Normalize()求解mean和std结论我们都知道,当图像数据输入时,需要对图像数据进行预处理,常用的预处理方法,本文不再赘述,本文重在讲讲transform.ToTensor和transforms.Normalize。问题transform.ToTensor(),transform.Normalize((0.5,0.5,0.5),(0.5,0.5,0.5))究竟原创 2021-09-26 17:07:31 · 5436 阅读 · 6 评论 -
pytorch中交叉熵损失nn.CrossEntropyLoss()的真正计算过程
关于nn.Cross Entropy Loss的真正理解对于多分类损失函数Cross Entropy Loss,就不过多的解释,网上的博客不计其数。在这里,讲讲对于CE Loss的一些真正的理解。首先大部分博客给出的公式如下:其中p为真是标签值,q为预测值。在低维复现此公式,结果如下。在此强调一点,pytorch中CE Loss并不会将输入的target映射为one-hot编码格式,而是直接取下标进行计算。import torchimport torch.nn as nnimport mat原创 2021-09-30 09:48:58 · 6325 阅读 · 5 评论
分享