自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 深度学习作业11 LSTM

它内部实现了时间步的循环,用户只需要一次性传入整个序列的输入,nn.LSTM 会自动执行所有时间步的计算,并返回整个序列的隐藏状态和细胞状态。通过控制的值,LSTM能够防止不必要的梯度消失,因为当 ftf_tft​ 接近1时,梯度可以较好地在时间上流动。输入门允许新信息进入细胞状态,从而帮助模型捕捉新的有价值的信息,而不会因梯度衰减导致模型无法学习新特征。hidden_size (int):LSTM 单元的隐藏状态和细胞状态的维度。输出门控制着输出的内容,通过控制信息流的输出,可以避免信息的过度消失。

2024-12-25 12:57:02 410

原创 深度学习作业十 BPTT

【代码】深度学习作业十 BPTT。

2024-12-09 18:09:27 189

原创 深度学习作业9-RNN-SRN-Seq2Seq

nn.RNNCell,它将序列上的每个时刻分开来处理。也就是说,如果要处理的是3个句子,每个句子10个单词,每个单词用长100的向量,那么送入nn.RNN的Tensor的shape就是[10,3,100]。但如果使用nn.RNNCell,则将每个时刻分开处理,送入的Tensor的shape是[3,100],但要将此计算单元运行10次。显然这种方式比较麻烦,但使用起来也更灵活。RNN 是对整个序列的封装。它可以直接处理完整的输入序列,并自动循环计算所有时间步的结果。

2024-12-03 13:02:20 640

原创 深度学习实验——卷积神经网络_基于残差网络实现手写体数字识别(ResNet18,mnist数据集)

神经网络与深度学习案例与实践的书里附带的在线运行终端里下的,也可以自己搜。代码根据实验十一改的,函数都放一起了。

2024-11-26 14:28:04 259

原创 NNDL 作业7 基于CNN的XO识别

1.局部感知、权值共享局部感知:在卷积神经网络中,局部感知是指卷积层中的每个神经元只与前一层中某个局部窗口内的神经元相连,而不是与前一层的所有神经元相连。深层的神经元能感受到前面的局部特征。相较全连接更能提取局部特征。权值共享:在卷积神经网络中,权值共享是指作为参数的卷积核对于同一层的所有神经元都是相同的。这意味着,无论在哪个位置,都使用相同的卷积核来提取特征,从而减少了参数的数量,降低了模型的复杂度,并提高了计算效率。平移不变性。2.池化(子采样、降采样、汇聚)。会带来那些好处和坏处?

2024-11-06 14:16:10 761

原创 深度学习实验9-前馈神经网络(5)鸢尾花分类(代码)

【代码】深度学习实验9-前馈神经网络(5)鸢尾花分类(代码)

2024-11-05 18:12:26 251

原创 神经网络与深度学习作业6

卷积核相当与一个权重矩阵,将原始图象数据与它对应的权重相乘相加,就将这些参与运算的原始数据根据权重的不同提取出来了,这就是卷积了.卷积核不同特征提取也不相同.卷积核本来用的都是老师PPT里给的,我对卷积核尝试更改了一下,对上面的图像没有太大的区别,可能是像素点太多,处理效果要放大看.对下面狗就有影响了.如果出现大面积黑斑,说明像素值过大,出现太白了就是太小.大了在卷积核或最后除或减去一些,小了同理.模糊和锐化:图像锐化用于增强图像边缘,导致高频分量增强,会使图像清晰;

2024-10-30 14:00:55 533

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除