- 博客(7)
- 收藏
- 关注
原创 第六周作业
CVPR 2019 《Selective Kernel Networks》该论文改进了 SENet,可以获得更加丰富的特征信息。在卷积神经网络中,感受野(Receptive Field)的定义是卷积神经网络每一层输出的特征图(feature map)上的像素点在输入图片上映射的区域大小。文中提出了一种在CNN中对卷积核的动态选择机制,该机制允许每个神经元根据输入信息的多尺度自适应地调整其感受野(卷积核)的大小。设计了一个称为选择性内核单元(SK)的构建块,其中,多个具有不同内核大小的分支在这些分
2022-03-28 15:54:43
3228
原创 第七周作业:注意力机制学习的part2
【BMVC2018】BAM: Bottleneck Attention ModulePDF:1807.06514.pdf (arxiv.org)Code:【CVPR2019】Dual Attention Network for Scene Segmentation【CVPR2020】ECA-Net: Efficient Channel Attention for Deep Convolutional Neural Networks【CVPR2020】Improving Convo
2021-10-25 00:36:53
1458
原创 第五周作业:卷积神经网络(Part3)
HybridSN 高光谱分类网络HybridSN 类的代码:#定义HybridSN类class_num = 16class HybridSN(nn.Module): def __init__(self): super(HybridSN,self).__init__() #3d卷积 self.conv3d_1=nn.Sequential( nn.Conv3d(1, 8, kernel_size=(7, 3, 3), stride=1, padding=0
2021-10-03 22:11:06
202
原创 第四周作业:卷积神经网络(Part2)
AlexNet2000年初期最主要的机器学习算法是核方法。其核心是特征提取、选择和函数来计算相关性、凸优化问题(凸优化问题指的是在定义域内具有全局最优解的问题)、漂亮的定理。
2021-09-26 22:00:26
189
1
原创 第三周作业:卷积神经网络(Part1)
一、从全连接到卷积引入:分类猫和狗图片时,当使用一个还不错的相机采集图片时(12M像素),RGB图片有36M元素,使用100大小的单隐藏层MLP,模型有3.6B元素,远多于世界上所有猫和狗总数,数据存储也需要很大的空间。在图片中发现模型的两个原则:平移不变性和局部性怎么从全连接层出发利用这两个原则得到卷积在上图中,v也就是识别器,不应该因为输入x的变化而变化。二、卷积层核矩阵的大小是超参数,决定了局部的大小,核矩阵和偏移是可学习的参数。...
2021-09-19 21:57:27
317
原创 第二周作业:多层感知机
截图来自李沐老师课件一、线性回归(一)线性回归是对n维输入的加权,外加偏差线性回归可以看作是单层神经网络使用平方损失来衡量预测值和真实值的差异线性回归有显式解(二)实现二、基础优化算法梯度下降通过不断沿着反梯度方向更新参数求解是学习率,如图圈是等值线,W2处是小值,w0处是大值,从w0处沿反梯度方向走大小。小批量随机梯度下降是深度学习默认的求解算法两个重要的超参数是批量大小和学习率...
2021-09-11 23:58:17
251
原创 第一次作业:深度学习基础
第一部分:深度学习概论1956年,达特茅斯会议首次提出“人工智能”的概念,随后人工智能经历了三次起伏。人工智能的三个层面:计算智能(主要是计算和存储)、感知智能(有感知,例如无人驾驶)、认知智能(有意识,能思考)。人工智能、机器学习与深度学习人工智能>机器学习>深度学习人工智能中包含机器学习,机器学习通过是否使用神经网络划分为神经网络和传统机器学习,而运用深度神经网络的才是深度学习。机器学习定义:从数据中自动学习知识...
2021-09-05 21:40:41
524
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人