- 博客(6)
- 收藏
- 关注
原创 舌体分割实验(未完成)
encoder和decoder结构上采样/反卷积:放大图像(或称为上采样(upsampling)或图像插值(interpolating))的主要目的是:放大原图像,从而可以显示在更高分辨率的显示设备上方法:nn.ConvTranspose2d和nn.Upsample。Upsample通过插值方法完成上采样,所以不需要训练参数。ConvTranspose2d可以理解为卷积的逆过程,所以可以训练参数。
2023-10-14 09:27:54
195
1
原创 pytorch实践:手写数字识别
网络结构:输入层->卷积层->激活函数->池化->全连接层(在使用ReLU激活函数时)选择最大池化,激活和池化两种顺序结果相同选择平均池化,激活在池化之前,保留的有效特征更多feature map大小计算:(CinInput层:Cin=channel数,Cout=本层filter数其他层:Cin=上一层filter数,Cout=本层filter数卷积层:Cout*(Kernalw*Kernalh*Cin)+bias池化层:不需要参数控制全连接层输入层;
2023-05-15 16:29:18
1051
1
原创 pytorch实践学习:cnn
一、卷积神经网络原理feature extration:卷积层提取特征卷积核channel数与输入的channel数一样,一个卷积核卷积后得到的channel数为1,最终输出的channel数为卷积核数二、代码实现卷积层torch.randn()随机分布torch.nn.conv2d()初始化卷积层,kernel_size参数可以直接为数值或者元组pedding:pooling利用GPU:三、googlenetconcatenate:拼接1*1co
2023-05-06 18:30:02
93
1
原创 pytorch实践学习:数据集构建和多分类问题
一、DataLoader:batch、epochdataset需要支持索引,shuffle使每组sample顺序打乱,loader划分batch代码实现dataset和dataloaderdataset类是抽象类,不能实例化,只能继承init():;getitem()可以索引访问;len()返回长度。数据集小就把xy全部加载到内存dataloader:num_workers并行读取数据的进程数training cycle:input和labels都是张量,python元组解包赋值各
2023-04-22 12:00:21
177
1
原创 pytorch实践学习:线性模型
再调用torch中nn(neural network)模块中的Linear类,该对象可以实现乘权重加偏置的计算[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传。类后面加(参数),用于__call__函数,实际上linear类中的__call__函数调用了该类的forward函数 [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传。构造优化器:需要指出优化的tensor[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传。
2023-04-20 09:25:45
87
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人