卷积神经网络系列之softmax,softmax loss和cross entropy

本文深入探讨了深度学习领域的关键概念,包括VGG网络结构、Keras中Dropout的使用、全连接层的工作原理、全局平均池化的作用、softmax函数及交叉熵损失函数的数学解释,并分析了softmax函数在多分类任务中的应用实例。

origin url

The First ColumnThe Second Column
VGG 网络结构1433065-20190415214026179-469464697.png
Keras 中的 keep_probDropout 的自由率
IOU1433065-20190415144132073-61261961.png
全连接层1433065-20190415111733995-748465704.png
全局平局池化
(Global Average Pooling)
与Fully Connected Lays
1433065-20190415111121346-18866241.png
VGG-16的全连接层1433065-20190415104906360-328863510.png
fine_tuning
classes 1000
-> classes 101效果
更差的原因
1433065-20190415105516923-411199155.png
多继承1433065-20190415095600411-449879667.png
接口1433065-20190415095724735-94896404.png
分类器1433065-20190415102806327-814844984.png
如何评价一个分类器1433065-20190415103540876-550005040.png
AUC1433065-20190414230228251-981060509.png
AUCROC曲线下面的面积
AUCArea under curve
AUC模型对分类问题的预测结果都是概率, 如果要计算
全连接层到
损失层之间的计算
1433065-20190412183110958-1574973934.png
W全连接层的参数,也称为权值
X全连接层的输入,也就是特征
全连接层1433065-20190412193409380-1629064100.png
softmax 公式1433065-20190412193427033-1503212678.png
softmax公式解释1433065-20190412193641889-1016898775.png
softmax 的3分类例子1433065-20190412193719478-135394598.png
softmax loss1433065-20190412194021984-310763169.png
softmax loss 公式解释1433065-20190412194120233-1752323361.png
softmax Loss 的5分类例子1433065-20190412194209921-2052207637.png
cross Entropy 公式1433065-20190412194900005-1504747204.png
cross Entropy 公式解释1433065-20190412194841375-1858168975.png

转载于:https://www.cnblogs.com/hugeng007/p/10698159.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值