深度学习入门笔记(一)必备数学基础知识

本文是深度学习入门笔记的第一部分,主要涵盖了线性代数的基础知识,包括向量、范数,以及微积分中的导数、偏导数和梯度。此外,还简单介绍了信息论中的KL散度和交叉熵概念。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本节中,我们先来介绍一些深度学习中必备的数学知识,有些是大学课堂讲过的,还有些可能没有,对于第一次见到的知识,可以先不用深究,了解概念即可,再后面应用的时候可以翻过头再看。

1.1 线性代数

深度学习中有4种核心数据结构:标量、向量、矩阵和张量。都对应大学课堂中线性代数中的知识。

向量

向量的点乘(注意点乘结果是个标量);对应项相乘;矩阵乘法;都可用python的numpy库完成。

范数

范数是一种距离的表示,或者说向量的长度。常见的范数有 L0 范数、L1 范数和 L2 范数,我们通过一个向量来看:
x =(x,x2,x3.… xn)

L0 范数:指这个向量中非 0 元素的个数。我们可以通过 L0 范数减少非 0 元素的个数,从而减少参与决策的特征,减少参数。这样一来,自然模型就运算得更快,模型的体积也更小了。

L1 范数:指的是向量中所有元素的绝对值之和,它是一种距离的表示(曼哈顿距离),也被称为稀疏规则算子,L0 范数和 L1 范数都能实现权值稀疏。但 L1 范数是 L0 范数的最优凸近似,它比 L0 范数有着更好的优化求解的

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

zhanghui_cuc

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值