深度学习
文章平均质量分 88
彩云回
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
RBFN 径向基函数神经网络学习笔记
摘要:径向基函数神经网络(RBFN)是一种基于局部响应的前馈神经网络,通过测量输入数据与中心点的距离进行预测。其结构包含输入层、径向基函数隐藏层和输出层,核心思想是"距离中心越近,影响越大"。相比多层感知器(MLP),RBFN训练更快、结构更直观,但存在节点数易爆炸和高维效果下降等缺点。RBFN适用于分类和回归任务,特别适合非线性数据拟合,但参数选择较依赖经验。该网络通过局部逼近机制,提供了一种高效且可解释性强的机器学习方法。原创 2025-09-29 15:24:14 · 819 阅读 · 0 评论 -
RBM(受限玻尔兹曼机)学习笔记
RBM(受限玻尔兹曼机)是一种两层神经网络模型,由可见层和隐藏层组成,通过全连接但层内无连接的结构实现高效计算。其工作原理是基于"猜测与修正"的学习过程,先通过正向传播提取特征,再反向重建数据并调整权重。RBM借鉴统计物理中的玻尔兹曼分布原理,通过能量最小化寻找数据的最佳表示。该模型在特征提取、降维、推荐系统等领域有广泛应用,尤其擅长从复杂数据中挖掘潜在模式,并能作为深度信念网络的基础模块。原创 2025-09-22 16:35:56 · 1020 阅读 · 0 评论 -
前馈神经网络
前馈神经网络是一种信息单向流动的人工神经网络,其核心特点是数据从输入端经过一系列计算后从输出端输出,整个过程无反馈或循环。它由输入层、一个或多个隐藏层及输出层组成,通过分层结构逐步提取和学习数据特征。前馈神经网络的训练包括前向传播、误差计算、反向传播和迭代优化,通过调整权重和偏置来最小化预测误差。其优势在于结构简单、计算高效,适用于图像识别、文本分类等任务,但无法处理序列数据中的时间依赖性。理解其单向性和分层设计是掌握该模型的关键。原创 2025-09-04 15:40:17 · 1309 阅读 · 0 评论 -
GAN学习笔记
摘要: 生成对抗网络(GAN)通过生成器(G)与判别器(D)的对抗训练实现高质量数据生成。核心思想是G生成假样本,D鉴别真伪,二者在博弈中共同优化。训练流程包括交替更新G和D,目标函数为最小-最大博弈。常见问题包括模式崩塌(生成样本单一)、梯度消失(D过强导致G无法学习)和训练不稳定,可通过WGAN-GP、谱归一化、数据增强等策略缓解。GAN变体如DCGAN、cGAN(条件生成)、StyleGAN等拓展了应用场景。评估指标如FID(衡量生成与真实分布差距)和IS(评估生成质量与多样性)需结合使用。相比VAE原创 2025-08-15 14:41:35 · 976 阅读 · 0 评论 -
SOM(自组织映射)学习笔记:让数据自己“说话”
自组织映射(SOM)是一种模拟大脑皮层响应的无监督学习算法,通过竞争和协作机制将高维数据映射到低维网格。其训练过程包含初始化、寻找最佳匹配节点、权重调整和自组织四个阶段,最终形成保留数据拓扑结构的二维可视化表示。SOM的核心特点包括无监督学习、拓扑保持和强大的可视化能力,使其在数据聚类、异常检测和模式识别等领域广泛应用。典型案例如手写数字图像聚类,能够自动发现数据中的相似模式并直观呈现。这种算法让复杂的高维数据能够"自我讲述"其内在结构和规律。原创 2025-09-20 15:38:23 · 750 阅读 · 0 评论 -
多层感知器 (MLP)
多层感知器(MLP)是一种神经网络模型,由输入层、隐藏层和输出层组成,通过层层加工数据提取特征。它像工厂流水线一样处理信息:输入层接收数据,隐藏层多次加权计算并激活转换,输出层给出预测结果。"多层"结构使其能学习复杂非线性规律,逐层提取更高级特征。MLP通过训练调整内部参数来优化性能,广泛应用于图像识别、数值预测、文本分类和推荐系统等领域。作为深度学习的基础模型,MLP通过数据分层处理揭示隐藏规律,实现智能预测与决策。原创 2025-09-16 09:35:57 · 1037 阅读 · 0 评论 -
理解长短期记忆神经网络(LSTM)
LSTM(长短期记忆网络)通过引入细胞状态和三个门控机制(遗忘门、输入门、输出门),有效解决了传统RNN在长序列处理中的梯度消失和爆炸问题。这种结构使其能够选择性记忆重要信息,在自然语言处理、语音识别等领域表现优异。虽然Transformer等新模型已超越LSTM的部分性能,但LSTM仍是理解序列模型发展的重要里程碑,其门控机制为后续模型提供了关键思路。原创 2025-09-18 16:15:21 · 2490 阅读 · 0 评论 -
理解循环神经网络(RNN)
RNN就是这样,它在处理序列数据(比如一句话、一段音乐、一个时间序列)时,会把前面处理过的信息“记住”,并把这个“记忆”带到下一步的处理中,从而更好地理解当前的信息。每一步,他会先决定擦掉笔记本上哪些过时的笔记(遗忘门),然后决定把当前学到的哪些新知识记到笔记本上(输入门),最后再根据笔记本上的内容,决定对外说出多少信息(输出门)。在BPTT过程中,如果每次反向传播的梯度(可以理解为“影响力”)都小于1,那么随着时间步的增加,这些小于1的数会不断相乘,导致梯度越来越小,最终趋近于0。原创 2025-08-14 17:38:49 · 940 阅读 · 0 评论 -
深度信念网络 (DBN) 学习笔记
想象一下,我们想让计算机像人一样“理解”世界,比如识别图片中的猫狗,甚至能“想象”出新的猫狗图片。深度信念网络(Deep Belief Network,简称 DBN)就是早期深度学习领域中,为了实现这个目标而诞生的一种强大模型。简单来说,DBN 是一种深度学习模型,它由多层特殊的“特征提取器”堆叠而成。这些“特征提取器”叫做受限玻尔兹曼机(RBM, Restricted Boltzmann Machine)。它不仅能像传统的分类器一样识别和分类(判别任务),更厉害的是,它还是一种生成模型。原创 2025-09-22 09:37:41 · 920 阅读 · 0 评论 -
卷积神经网络(CNN)学习笔记
CNN是一种用于图像处理的深度学习模型,其核心在于自动特征提取。它通过卷积层捕捉局部特征,池化层降维并增强鲁棒性,全连接层进行最终决策。CNN的优势包括权值共享减少参数量、局部连接模拟视觉机制,以及层级特征学习能力。经典模型如LeNet、AlexNet、ResNet等不断优化网络结构。虽然面临过拟合、计算量大等挑战,但通过数据增强、迁移学习等方法可有效解决。CNN广泛应用于图像分类、目标检测、医学影像分析等领域,展现出强大的特征学习和模式识别能力。原创 2025-08-15 15:55:26 · 739 阅读 · 0 评论
分享