深度学习的一个知识总结

本文深入浅出地介绍了深度学习中的关键概念,包括卷积神经网络、池化、LSTM、变分自编码器(VAE)、生成对抗网络(GAN)及强化学习等。文章通过直观的例子帮助读者理解这些复杂的模型。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

深度学习的一个知识总结


这里写图片描述


罗嗦两句

好吧,可能你很奇怪为何这么久我没写博客了,从十二月开始,我不得不专心于一篇paper的撰写,在一月下旬开始我一直在恶补一些理论知识,包括应用数学、统计物理、还有一些琐碎的广义相对论知识,一些只是因为兴趣。


今天我要谈及的

今天只是试图用白话总结一下深度学习里一些常见的知识点,在看懂这篇文章前,你起码对深度学习和机器学习乃至概率统计那套把戏都比较熟悉来了。
so lets begin


卷积神经网络

哈哈你也许被傅立叶变换里那个卷积公式给混淆了,这个卷积和那个屁关系都没有。
其实就是一个叫做卷积核(Kernel)的矩阵,这个核和它想识别的特征作积所得的实数结果就会很大,从某种程度上说,不严格的说,是个滤波器。
比如下图是卷积核的可视化:
这里写图片描述


池化

你可以把它和卷积并行起来理解,虽然不同,但是他们的关系就像哪吒和红孩儿(莫名其妙的相似… …)
池化层是对输入的特征图进行压缩,一方面使特征图变小,简化网络计算复杂度;一方面进行特征压缩,提取主要特征。她的假设在于,图像中相邻位置的像素是相关的。

这里写图片描述


LSTM

神经网络本来是一个万能拟合器,现在我们需要处理一种时间序列模型,比如,股票价格数据,是一个高密度的时间序列数据,并且很明显上一时刻和下一时刻有关,还有自然语言也是。
所以不得不先说RNN:Recurrent Neural Networks
这里写图片描述
可以看见tt时刻的网络At有两个输入即:

ht=At(At1,xt)ht=At(At−1,xt)

但是RNN对长期依赖的模式的学习不太好,主要是长链条的学习会导致的大梯度和高复杂计算不太现实。
Long Short Term 网络—— 一般就叫做 LSTM ——是一种 RNN 特殊的类型,可以学习长期依赖信息。LSTM 由Hochreiter & Schmidhuber (1997)提出,并在近期被Alex Graves进行了改良和推广。在很多问题,LSTM 都取得相当巨大的成功,并得到了广泛的使用。
这里写图片描述
所以LSTM其实就是加了几个非线性门,每个门其实是一个小的神经网络,这样的一个A叫做一个LSTM单元。
这里写图片描述
LSTM的反向传播算法
这里写图片描述

VAE

我真的不是在说什么许嵩。。。我们谈及的是ariational Auto-Encoder,变分自编码器。其实自编码器就是将样本通过编码器生成为一个特征向量,解码器就是将这个特征向量解码为原来的样本。这和密码学里的加密解密很相似。
这里的编码器和解码器都各自是一个神经网络
这里写图片描述

注意了,变分自编码器的思想是大红大紫的GAN的基础,思考,当我们从样本xx生成编码z的时候,我们同时训练解码器使其由zz生成x^,最小化||x̂ x||||x^−x||.最后我们去掉编码器,此时的zz就已经有实际的表达意义了!它的改变再加上解码器来工作就可以生成假样本x^
改变zz时,数字样本的方向也发生改变,说明z蕴含了这个特征:
这里写图片描述
你是否疑惑,为啥叫变分?
我们的目标是Pθ(x)Pθ(x),而:

logPθ(x)=Ez[logPθ(x|z)Pθ(z)/Pθ(z|x)]logPθ(x)=Ez[logPθ(x|z)Pθ(z)/Pθ(z|x)]

Pθ(z|x)Pθ(z|x)很难算,我们用
qϕ(z|x)qϕ(z|x)

来替代计算,此处不详谈。无论qϕ(z|x)qϕ(z|x)还是Pθ(x|z)Pθ(x|z)都是神经网络。

GAN

对抗神经网络,大名鼎鼎。其原理不需多言,就是一个生成器(编码器)和一个判别器,注意其训练是生成器和判别器交替优化(交替做梯度更新)
这里写图片描述
还有就是一开始生成器目标项log(1D(G(z)))log(1−D(G(z)))的梯度下降极慢,所以一开始是对log(D(G(z)))−log(D(G(z)))作梯度更新来逼近G(z)G(z)接近1的地方。
这里写图片描述


强化学习

强化学习吸收了Markov链的思想,事实上如果你熟悉深度学习你会发现很多模型都和Markov链有或多或少的关系。它把学习模型抽象成了一个代理者,和环境的形式。
这里写图片描述
环境给予代理状态值和奖励值,代理给予环境动作值。我认为代理很像玩游戏的玩家,而环境则如同游戏机。这样理解似乎很合理,事实上强化学习模型还真的是被广泛用来训练玩游戏,还有围棋(AlphaGo)。
我就直接谈其最终形式了:

θJ(θ)t0(Qπθ(st,at)Vπθ(st))θlogπθ(at|st)▽θJ(θ)≃∑t≥0(Qπθ(st,at)−Vπθ(st))▽θlogπθ(at|st)

其中Qπθ(st,at)Qπθ(st,at)描述量化了(st,at)(st,at)即状态stst时采取行动atat有多好,而Vπθ(st)Vπθ(st)描述了状态stst时情况有多好。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值