
深度学习系列
文章平均质量分 80
深度学习系列
DoYangTan
双非保研至浙大
HBU-->ZJU
展开
-
深度学习系列(1):深度学习概述
深度学习(Deep Learning)是一种基于人工神经网络的机器学习方法,近年来在计算机视觉、自然语言处理和语音识别等领域取得了巨大成功。本系列博客将从基础入门,逐步深入,帮助读者掌握深度学习的核心概念与应用。原创 2025-03-16 10:57:26 · 471 阅读 · 0 评论 -
深度学习系列(3):前向传播与反向传播
在上一期中,我们介绍了深度神经网络(DNN)的基本概念。本期将深入探讨深度学习的核心计算过程——,它们是训练神经网络的关键步骤。原创 2025-03-16 11:00:03 · 301 阅读 · 0 评论 -
深度学习系列(2):深度神经网络(DNN)详解
深度神经网络(Deep Neural Networks, DNN)是深度学习的核心模型之一,它由多个隐藏层构成,能够学习复杂的特征表示,在多个领域取得了优异的表现。原创 2025-03-16 10:59:09 · 328 阅读 · 0 评论 -
深度学习系列(4):梯度消失与梯度爆炸
梯度消失(Vanishing Gradient)当网络层数较深时,反向传播中的梯度会在逐层传递时不断缩小,导致靠近输入层的权重更新趋近于零,网络无法有效学习。梯度爆炸(Exploding Gradient)相反,如果梯度在传播过程中不断累积放大,就会导致参数更新过大,使得训练过程不稳定,甚至出现**NaN(非数值)**错误。原创 2025-03-16 11:00:46 · 606 阅读 · 0 评论 -
深度学习系列(10):扩散模型(Diffusion Model)详解
扩散模型(Diffusion Model)是一种生成模型,通过模拟数据从噪声分布到目标数据分布的扩散过程。与 GAN 和 VAE 等模型不同,扩散模型通过正向扩散过程和反向去扩散过程生成数据。扩散模型在图像生成领域表现出色,尤其是在生成质量上超过了传统生成对抗网络(GAN)。正向扩散过程:将数据逐步加噪,直到变成纯噪声。反向去扩散过程:通过去噪过程从噪声恢复数据。原创 2025-03-16 11:07:15 · 512 阅读 · 0 评论 -
深度学习系列(5):卷积神经网络(CNN)详解
在前几期中,我们讨论了深度神经网络(DNN)的基础知识以及梯度消失和爆炸问题。本期将重点介绍,它是深度学习在图像处理领域的核心技术。原创 2025-03-16 11:01:28 · 433 阅读 · 0 评论 -
深度学习系列(11):强化学习(Reinforcement Learning)详解
强化学习(Reinforcement Learning, RL)是一种学习策略,模型(或智能体)通过与环境交互,获取奖励或惩罚,从而优化其行为策略。与监督学习不同,强化学习的目标是通过试错的方式来学习最优的决策策略。智能体(Agent):执行行动的主体。环境(Environment):智能体进行决策的外部系统。状态(State):环境的当前情况。动作(Action):智能体根据状态选择的行为。奖励(Reward):智能体执行动作后获得的反馈,通常是数值化的。策略(Policy)原创 2025-03-16 11:08:23 · 588 阅读 · 0 评论 -
深度学习系列(6):循环神经网络(RNN)详解
在上一期中,我们介绍了卷积神经网络(CNN)在图像处理领域的应用。然而,CNN 主要用于处理固定大小的输入数据,而对于序列数据(如文本、语音和时间序列),循环神经网络(Recurrent Neural Network, RNN)更为适用。本期博客将介绍 RNN 的基本概念、结构以及 PyTorch 实现。原创 2025-03-16 11:02:26 · 294 阅读 · 0 评论 -
深度学习系列(14):神经网络剪枝技术(Pruning)详解
神经网络剪枝(Pruning)是通过删除神经网络中冗余的神经元或连接来减少模型的规模和计算量,从而提高模型的推理速度并降低存储需求。剪枝的目标是保持模型的性能,同时通过减少计算资源的消耗来提升效率。去除不重要的连接或神经元:通过评估神经元或连接的重要性,去除那些对模型性能影响较小的部分。提高模型效率:通过剪枝,可以大大减少计算量和内存消耗,尤其在资源受限的环境中非常有用。减少过拟合:剪枝可以通过简化模型来防止过拟合,提高模型的泛化能力。原创 2025-03-16 11:10:06 · 947 阅读 · 0 评论 -
深度学习系列(8):BERT 详解
在上一期中,我们介绍了 Transformer 的基本结构及其在自然语言处理(NLP)中的应用。本期博客将深入介绍基于 Transformer 的,它在 NLP 任务中取得了革命性的突破。原创 2025-03-16 11:04:14 · 348 阅读 · 0 评论 -
深度学习系列(12):自监督学习(Self-Supervised Learning)详解
自监督学习是一种特殊的学习范式,它不依赖于人工标签,而是通过构造代理任务(pretext task)来学习数据的表示。自监督学习的目标是通过数据本身的结构来获取有效的特征表示,这种方式通常比监督学习节省了大量的标注数据。自我标注:利用数据本身的信息生成标签,进而训练模型。预训练任务:通过设置辅助任务来逼近目标任务,通常用于生成特征表示。无监督性质:不需要人工标注的标签,极大地扩展了模型的应用范围。原创 2025-03-16 11:08:57 · 865 阅读 · 0 评论 -
深度学习系列(15):神经网络量化技术(Quantization)详解
神经网络量化(Quantization)是通过减少神经网络中的数值精度来降低模型的计算量和存储需求。通常,神经网络的权重和激活值是使用32位浮点数表示的,而量化将这些值转换为较低位数的表示(例如8位整数)。通过这种方式,可以显著减小模型的尺寸,并加速推理过程,同时对性能影响较小。减少数值精度:将浮点数转换为较低位数的整数,从而减少存储和计算的开销。提高推理速度:在硬件支持整数运算的情况下,量化后的模型可以使用更高效的计算资源,加速推理过程。减小模型尺寸。原创 2025-03-16 11:10:49 · 951 阅读 · 0 评论 -
深度学习系列(7):Transformer 详解
在前几期中,我们介绍了 RNN 及其变体(LSTM、GRU)在处理序列数据方面的应用。然而,RNN 存在长距离依赖问题,并且难以并行化。通过,彻底改变了自然语言处理(NLP)领域的架构。本期博客将介绍 Transformer 的核心思想及其 PyTorch 实现。原创 2025-03-16 11:03:17 · 237 阅读 · 0 评论 -
深度学习系列(13):图神经网络(Graph Neural Networks)详解
图神经网络(GNN)是一类专门用于处理图结构数据的神经网络模型。与传统的神经网络不同,GNN可以有效地处理具有非欧几里得结构的数据,如社交网络、推荐系统、分子结构等。图神经网络的核心思想是通过节点之间的信息传递和聚合来学习图的表示。图结构数据:图数据由节点(vertices)和边(edges)组成,节点代表实体,边代表实体之间的关系。信息传递机制:通过节点之间的相邻边传递信息,每个节点更新其状态(或表示)。局部计算:每个节点的表示由其邻居节点的信息决定,适合处理动态变化的图结构。原创 2025-03-16 11:09:29 · 657 阅读 · 0 评论