python model.compile_keras model.compile(loss='目标函数 ', optimizer='adam', metrics=['accuracy'])...

本文详细介绍了深度学习中常用的损失函数,包括mean_squared_error、mean_absolute_error、mean_absolute_percentage_error等,以及它们的计算公式和应用场景。特别地,讨论了在分类问题中二分类和多分类的交叉熵损失函数,如binary_crossentropy、categorical_crossentropy和sparse_categorical_crossentropy,并提及了Kullback-Leibler散度和余弦亲和度作为衡量分布差异和向量相似性的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目标函数,或称损失函数,是网络中的性能函数,也是编译一个模型必须的两个参数之一。由于损失函数种类众多,下面以keras官网手册的为例。

在官方keras.io里面,有如下资料:

mean_squared_error或mse

mean_absolute_error或mae

mean_absolute_percentage_error或mape

mean_squared_logarithmic_error或msle

squared_hinge

hinge

binary_crossentropy(亦称作对数损失,logloss)

categorical_crossentropy:亦称作多类的对数损失,注意使用该目标函数时,需要将标签转化为形如(nb_samples, nb_classes)的二值序列

sparse_categorical_crossentrop:如上,但接受稀疏标签。注意,使用该函数时仍然需要你的标签与输出值的维度相同,你可能需要在标签数据上增加一个维度:np.expand_dims(y,-1)

kullback_leibler_divergence:从预测值概率分布Q到真值概率分布P的信息增益,用以度量两个分布的差异.

cosine_proximity:即预测值与真实标签的余弦距离平均值的相反数

mean_squared_error

顾名思义,意为均方误差,也称标准差,缩写为MSE,可以反映一个数据集的离散程度。

标准误差定义为各测量值误差的平方和的平均值的平方根,故又称为均方误差。

公式:

984577-20160916100944180-165787821.png

公式意义:可以理解为一个从n维空间的一个点到一条直线的距离的函数。(此为在图形上的理解,关键看个人怎么理解了)

mean_absolute_error

译为平均绝对误差,缩写MAE。

平均绝对误差是所有单个观测值与算术平均值的偏差的绝对值的平均。

公式:

a26cd07ce591210dc494cec532c4dacfdf9153b9(fi是预测值,yi是实际值,绝对误差60156ef2e757686defad4fb95123a99f27777c47)

mean_absolute_percentage_error

译为平均绝对百分比误差 ,缩写MAPE。

公式:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值