
深度学习
文章平均质量分 81
llovew.
这个作者很懒,什么都没留下…
展开
-
递归神经网络 RNN
递归神经网络(Recurrent Neural Network,RNN)是一种具有循环连接的神经网络结构,主要用于处理序列数据。它的原理是通过将当前时刻的输入和上一时刻的隐藏状态进行组合,来预测下一时刻的输出。RNN的基本结构包括输入层、隐藏层和输出层。隐藏层中的神经元不仅接收当前时刻的输入,还接收上一时刻隐藏层的输出作为输入。这种循环连接使得RNN能够对序列数据进行建模,捕捉到数据中的时序信息。在RNN中,每个时间步都有一个隐藏状态,用于存储过去时间步的信息。隐藏状态可以看作是网络对过去信息的记忆。原创 2024-07-31 18:13:02 · 816 阅读 · 0 评论 -
卷积神经网络 CNN
卷积核是卷积神经网络中的一个重要概念,用于提取输入图像的特征。卷积核的定义包括两个方面:大小和形状。1. 大小:卷积核的大小决定了卷积操作的范围,也就是感受野的大小。在二维卷积中,最常见的卷积核大小是3x3。一般来说,较大的卷积核可以捕捉更多的图像信息,获得更好的全局特征。但是,大的卷积核会增加计算量,降低计算性能。2. 形状:卷积核的形状可以是任意的,但通常是正方形或矩形。卷积核的形状决定了卷积操作的方式和特征提取的方式。例如,边缘检测可以使用边缘检测卷积核,而模糊操作可以使用模糊卷积核。原创 2024-02-25 14:04:00 · 2495 阅读 · 1 评论 -
神经网络代码实现
损失函数定义# 获取层数# 样本个数# 分类个数# 前向传播走一次# 制作标签,每一个样本的标签都得是one-hot# 将对应的位置改为 1# 计算损失。原创 2024-02-18 23:03:13 · 1674 阅读 · 0 评论 -
神经网络算法原理
Dropout是一种常用的正则化技术,用于减少神经网络的过拟合问题。在训练过程中,Dropout会随机地将一部分神经元的输出置为0,这样可以强制网络去学习更加鲁棒的特征表示。具体来说,Dropout会以一定的概率p将某个神经元的输出置为0,而保留其他神经元的输出原创 2024-02-17 17:53:04 · 1201 阅读 · 0 评论