- 博客(4)
- 收藏
- 关注
原创 神经网络与深度学习第四次课程总结——RNN的核心结构及其演进技术
当序列长度超过50步时,梯度在反向传播中呈指数衰减,导致模型难以学习到“The cat…sat on the mat”中开头单词与结尾的关联。解决了这一难题——它像人类阅读文本一样,将历史信息存储在隐状态中,逐时刻更新对上下文的理解。本文将深入探讨RNN的核心结构及其演进技术。在自然语言处理和时间序列分析中,传统神经网络难以捕捉数据间的时序关联。循环神经网络(RNN)通过引入。
2025-06-03 11:45:14
1905
原创 神经网络与深度学习第三次课程总结——计算机视觉核心技术解析
作为计算机视觉领域的启蒙数据集,收录了6万张28×28像素的手写数字灰度图,涵盖0-9共10个类别,其标准化的格式为算法验证提供了便捷入口。继承其数据规范,将内容替换为服装鞋帽等10类商品图像,成为评估模型泛化能力的新基准。则突破单通道限制,提供6万张32×32彩色图像,涵盖交通工具与动物等日常物体类别,适合测试模型对复杂特征的捕捉能力。
2025-05-21 11:57:52
1829
原创 神经网络与深度学习第二次课程总结——卷积神经网络
卷积神经网络(Convolutional Neural Network,CNN)是一种面向网格型数据(如图像、时序信号)设计的深度学习模型。其灵感来源于生物视觉系统的层次化信息处理机制,通过多层卷积、非线性激活与下采样操作,逐步提取数据的空间特征与抽象语义。相较于传统全连接网络,CNN 在图像识别、语音处理等领域展现出更高的效率与准确性。卷积神经网络通过仿生设计实现了从数据驱动到语义理解的跨越,成为计算机视觉领域的基石技术。
2025-05-12 21:12:24
903
原创 神经网络与深度学习第一次课程总结——感知机、BP网络
线性模型:回归与分类的基础,依赖解析解或梯度下降。感知机:神经网络的前身,解决线性分类问题。多层网络与BP:突破线性限制,实现复杂函数逼近,但需注意调参和计算开销。
2025-05-07 15:18:54
1250
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅