深度学习| 交叉熵损失函数(包含代码实现)

本文详细介绍了深度学习中常用的交叉熵损失函数,包括其在二分类和多分类问题中的应用,以及在处理类别不均衡时的问题。同时讨论了带权重的交叉熵函数作为解决方案,以及在PyTorch中的实现方式。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

前言:因为我深度学习主要用于图像分割,所以交叉熵损失函数主要侧重在图像分割。

介绍

交叉熵损失函数(Cross-Entropy Loss)是深度学习中常用的一种损失函数,特别是处理分类问题。该函数起源于信息论中的交叉熵概念,用于衡量两个概率分布间的差异,可以衡量预估概率分布和真实样品对应概率分布之间的差异。

从这个概念上理解会让人感觉很抽象,建议直接从公式来进行理解。

公式

二分类
H ( y , y ^ ) = − 1 N ∑ i = 1 N [ y i l o g ( y ^ i ) + ( 1 − y i ) l o g ( 1 − y ^ i ) ] H(y,\widehat{y})=- \frac{1}{N} \sum_{i=1}^N[y_ilog(\widehat{y}_i)+(1-y_i)log(1-\widehat{y}_i)] H(y,y )=N1i=1N[yilog(y i)+(1yi)log(1y i)]
其中y是真实标签, y ^ \widehat{y} y 是预测值,N是样本的数量。每个样本都会计算一个损失,然后对所有样本的损失求平均。

对于图像来说,这里的N可以看作是图像像素点的个数, y ^ \widehat{y} y 是预测每个像素点的值,y是每个像素点标签的值,一张图像的交叉熵其实就是计算每个像素点预测值和标签插值的平均。

多分类
多分类就是二分类的延申,理解的原理都是一样的。
H ( y , y ^ ) = − 1 N ∑ i = 1 N [ y i 1 l o g ( y ^ i 1 ) + y i 2 l o g ( y ^ i 2 ) + . . . + y i m l o g ( y ^ i m ) ] H(y,\widehat{y})=- \frac{1}{N} \sum_{i=1}^N[y_{i1}log(\widehat{y}_{i1})+y_{i2}log(\widehat{y}_{i2})+...+y_{im}log(\widehat{y}_{im})] H(y,y )=N1i=1N[yi1log(y i1)+yi2log(y i2)+...+yimlog(y im)]
H ( y , y ^ ) = − 1 N ∑ i = 1 N ∑ j = 1 m [ y i j l o g ( y ^ i j ) ] H(y,\widehat{y})=- \frac{1}{N} \sum_{i=1}^N\sum_{j=1}^m[y_{ij}log(\widehat{y}_{ij})] H(y,y )=N1i=1Nj=1m[yijlog(y ij)]
这里的 y ^ \widehat{y} y 和y是one-hot编码目标向量,例如 y i = [ y i 1 , y i 2 , . . . , y i m ] y_i=[y_{i1},y_{i2},...,y_{im}] yi=[yi1,yi2,...,yim]

交叉熵函数存在什么问题

之前我的一篇博客提过使用交叉熵函数面对类别不均衡的时候会出现问题,导致结果会偏向更常见的类别,对少类别的识别非常差。

产生这点的原因是因为交叉熵的特点就是“平等”地看待每一个样本,无论什么类别权重都是一样的。所以当正负样本不均衡时,大量简单的负样本会占据主导地位,少量的难样本和正样本就会分不出来。

带权重的交叉熵函数

由于交叉熵函数在应对类别不均衡会出现问题,于是就有了带权重的交叉熵函数。

带权重的交叉熵函数(Weighted cross entropy,WCE)会在计算交叉熵函数的时候,给不同类别前面加入一个权重。

公式
H ( y , y ^ ) = − 1 N ∑ i = 1 N ∑ j = 1 m [ w j y i j l o g ( y ^ i j ) ] H(y,\widehat{y})=- \frac{1}{N} \sum_{i=1}^N\sum_{j=1}^m[w_{j} y_{ij}log(\widehat{y}_{ij})] H(y,y )=N1i=1Nj=1m[wjyijlog(y ij)]
其中 w j w_j wj表示对j类别的权重,用于增大在预测图上占比例小的类别,公式如下:
w j = N − ∑ 1 N y ^ i j ∑ 1 N y ^ i j w_j= \frac{N-\sum_{1}^N\widehat{y}_{ij}}{\sum_{1}^N\widehat{y}_{ij}} wj=1Ny ijN1Ny ij

补充:除了带权重的交叉熵函数能解决样本类别不均衡,还有DiceLoss和FocalLoss能用来解决。

代码

PyTorch的话有自带的库能解决:

import torch
import torch.nn as nn

class CrossEntropyLoss2d(nn.Module):
    def __init__(self, weight=None, size_average=True):
        super(CrossEntropyLoss2d, self).__init__()
        self.nll_loss = nn.CrossEntropyLoss(weight, size_average)

    def forward(self, preds, targets):
        return self.nll_loss(preds, targets)

nn.CrossEntropyLoss(weight, size_average)
weight:可以指定一个一维的Tensor,用来设置每个类别的权重。用C表示类别的个数,Tensor的长度应该为C。
size_average:bool类型数据,默认情况下为True,此时损失是每个minibatch的平均;如果设置成False,则对每个minibatch求和。

### 配置 VSCode Remote SSH 在无网络情况下连接至远程服务器 #### 插件安装准备 对于VSCode的Remote-SSH功能,在目标计算机(即用于编写代码的工作站)上事先需确保已安装好“Remote - SSH”插件。通常该插件会在安装过程中自动处理依赖项,但在离线环境中无法实现这一点[^3]。 #### 提前下载所需资源 考虑到工作机可能处于无联网状态,建议在另一台可上网设备上预先下载所有必需文件并转移过来。这包括但不限于特定版本的VSCode及其扩展包。“Remote - SSH”以及任何其他必要的附加组件都应被手动获取,并按照官方文档指导完成本地部署。 #### 设置SSH环境变量 为了使VSCode能够顺利利用SSH协议与远端建立联系,必须正确设定系统的PATH环境变量以便识别Git自的SSH客户端位置。例如,如果Git安装于`D:\git\Git`,则应当把`D:\git\Git\usr\bin\`加入到全局路径中去[^1]。 #### 手动传输必要工具 鉴于远程服务器也需要运行相应的支持程序和服务,务必确认其已经启用了SSH服务。同时,针对那些在网络受限环境下难以即时加载的内容——比如由VSCode初次接入时尝试推送的部分辅助应用,则应该考虑提前打包这些资料并通过安全的方式拷贝给目标主机自行解压执行。 #### 实现免密登录配置 为简化后续操作流程,推荐采用基于密钥的身份验证方式代替传统的口令认证模式。具体做法是在Windows平台借助命令提示符执行如下指令创建一对新的RSA加密钥匙对: ```bash ssh-keygen.exe -t rsa ``` 之后依照屏幕指示逐步完成整个过程,默认选项通常是合适的;生成完毕后记得将公钥分发给待访问的目标节点以供校验之用[^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值