深度学习入门初探——损失函数交叉熵误差

本文介绍了自然对数的概念,并通过代码展示了自然对数函数的图形。接着,详细解释了交叉熵误差函数,它是神经网络中常见的损失函数,用于衡量预测结果与真实结果的匹配程度。文中还提供了交叉熵误差的numpy实现,并通过MNIST数据集进行了实例演示,展示了如何计算预测输出与实际结果的交叉熵误差。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

        在看交叉熵误差公式前,先来熟悉一下自然对数,自然对数是以常数e为底数的对数,数学中常见以logx表示自然对数。e是一个无限不循环小数,其值约等于2.718281828459…,是一个超越数。看代码,分析图:

        代码不写注释,因为很明显了。之所以加了负号画出红线图形,是因为这个解释起来更容易一些,而且交叉熵误差函数也确实是取了负号的。

        前文深度学习入门初探——多层感知机的神经网络式实现已经介绍过了,神经网络的输出softmax,值在0到1之间,1就是100%的,当输出1的时候就是百分百确认,误差为0。当输出趋于0的时候误差就越大,越不能确认。

        图中红色曲线在输入是0到1时,误差是负无穷到0。

# coding: utf-8
import math
import numpy as np
import matplotlib.pylab as plt
 
X = np.arange(0.0000001, 5.0, 0.01)
Y = np.arange(0.0000001, 5.0, 0.01)
for i in range(0,X.shape[0]):
   
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

clyfk

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值