笔记 - 深度学习脉络整理:2.损失函数

本文深入探讨了深度学习中关键的损失函数概念,包括softmax、sigmoid及其对应的损失函数,对比了它们之间的区别,并讨论了欧氏损失及损失函数加权的重要性。文章还提到了对softmax loss的改进思路。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  • 脉络结构
1. 结构
2. 损失
3. 优化

在这里插入图片描述
在这里插入图片描述

思考:
为什么使用softmax
softmax存在的问题
交叉熵损失的含义

  • 题外话:清楚原理之后,可以对它进行改进
使用 softmax 的时候,有一个默认的前提,就是每个物体只属于一类
比如人脸识别,每张脸只能对应一个人

在这里插入图片描述
在这里插入图片描述

思考:

  1. sigmod二分类的Loss,与softmax多分类的Loss 的区别
  2. sigmod 与 softmax的 区别

欧氏损失

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

  • 损失函数加权

在这里插入图片描述

  • 样本加权

在这里插入图片描述


在这里插入图片描述

  • 对softmax loss 进行改进

---

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值