- 博客(16)
- 收藏
- 关注
原创 pytorch 交叉熵损失详解
H(P,Q) = -∑ P(x) * log(Q(x)),其中P和Q分别表示两个概率分布,P(x)表示事件x在真实分布中的概率,Q(x)表示事件x在预测分布中的概率,log表示自然对数。对 生成的预测, 3,3 在 预测的维度上使用softmax归一化,然后得到了三个样本的 0~1 ,然后使用log函数对预测值取log ,然后再 NLLloss。pytorch中的 nn.CrossEntropyLoss() 计算得到的结果与 softmax-log-NLLLoss计算得到的结果是一致的。
2024-08-23 16:49:02
229
原创 python 镜像源
中国科技大学 https://pypi.mirrors.ustc.edu.cn/simple/清华:https://pypi.tuna.tsinghua.edu.cn/simple。阿里云:http://mirrors.aliyun.com/pypi/simple/华中理工大学:http://pypi.hustunique.com/豆瓣:http://pypi.douban.com/simple/官方 https://pypi.org/simple/
2024-04-20 10:17:10
888
原创 pytorch优化器
for x , y in dataloader : optimizer . zero_grad() #梯度清零 output = testnet . forward(x) loss = loss_fn(output , target) loss . backward() optimizer . step() #更新网络参数。
2023-01-10 11:26:24
124
翻译 Deep Residual Learning for Image Recognition
深度很深的神经网络是很难训练的,我们提出了一个残差学习框架,以简化比以前使用的网络更深的网络的训练。根据经验表明,残差网络是更容易优化的。此外,显著增加网络的深度是可以提高准确性的。在 ImageNet 数据集上,我们评估了深度高达 152 层的残差网络——比 VGG 网络 [40] 深 8 倍,但复杂度仍然较低。这些残差网络的集合在 ImageNet 测试集上达到了 3.57% 的错误率。该结果在 ILSVRC 2015 分类任务中获得第一名。
2023-01-09 10:16:57
149
翻译 VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION
在当前文章中,在大规模图像识别背景下,我们探究了卷积网络的深度对图像识别的准确性。我们的主要贡献是使用很小的(3×3)卷积滤波器的架构对深度不断增加的网络进行了彻底评估,这表明通过将深度推至16–19个权重层,可以实现对现有技术配置的显著改进。这些发现是我们2014年ImageNet挑战赛提交的基础,我们的团队在图像定位和图像分类方面分别获得了第一名和第二名。我们还表明,我们的表示可以很好地推广到其他数据集,在那里它们可以获得当前最好的结果。
2023-01-08 10:36:44
507
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅
1