- 博客(29)
- 收藏
- 关注
原创 扩散模型的发展过程梳理 多个扩散模型理论知识总结/DDPM去噪扩散概率/IDDPM/DDIM隐式去噪/ADM/SMLD分数扩散/CGD条件扩散/Stable Diffusion稳定扩散/LM
扩散模型的发展过程梳理 多个扩散模型理论知识总结/DDPM去噪扩散概率/IDDPM/DDIM隐式去噪/ADM/SMLD分数扩散/CGD条件扩散/Stable Diffusion稳定扩散/LM
2024-04-18 12:56:50
466
原创 多种损失函数
第scale1layer0的输出:torch.Size([1, 64, 129, 129])第scale1layer1的输出:torch.Size([1, 128, 65, 65])第scale1layer2的输出:torch.Size([1, 256, 33, 33])第scale1layer4的输出:torch.Size([1, 1, 35, 35])第scale2layer4的输出:torch.Size([1, 1, 19, 19])
2024-03-27 16:42:23
884
原创 CycleRNG风格转换代码解读——生成器ResnetGenerator
例如,使用3*3的卷积核从图像左上角(即坐标为(0,0)像素)开始进行卷积,如果把最左上角坐标(0, 0)的像素作为中心像素,由于(0,0)左侧、上方和左上方没有像素了,此时就无法运算,图像就会缩小。和常见的先降采样到低纬度,再上采样到原始分辨率的编解码结构的网络相比,U-Net的区别是加入了跳跃层结构skip-connection,将编解码前后同样大小的特征图拼接在一起,这种方法可以一定程度上保留不同分辨率下像素级别的细节信息。相对于原始的编解码结构的网络,U-Net刻画细节的效果十分显著,如下图所示。
2024-01-27 11:36:04
1664
1
原创 深度学习:使用timm库的resnet101模型对glaucoma图像集进行图像分类预测
【代码】深度学习:使用timm库的resnet101模型对glaucoma图像集进行图像分类预测。
2023-11-24 11:36:24
394
1
原创 深度学习:使用timm库的resnet101模型对 pokem图像集进行图像分类预测
【代码】深度学习:使用timm库的resnet101模型对 pokem图像集进行图像分类预测。
2023-11-24 10:01:07
156
1
原创 青光眼实战(ResNet,GoodLeNet,DenseNet)总结分析
总之,要改善模型的性能,您可以考虑增加数据集的大小、提高数据的质量、调整模型的复杂度、使用适当的训练和优化方法、进行特征工程、集成多个模型以及调整超参数等。希望这些建议对您有所帮助!图一:loss&epoch。图二:Validation&epoch。ResNet模型做青光眼测试的效果最好,GoodLeNet 和DesneNet模型效果差不多,模型更复杂但是效果确不佳。模型的性能可能会受到多种因素的影响。
2023-11-11 22:34:42
229
1
原创 深度学习实战案例二:青光眼数据集多分类预测(Resnet)
链接:https://pan.baidu.com/s/1rVWr6Y2eQ6g8zahOLjDjAQ?pwd=8888提取码:8888青光眼数据集共有364张图:Glaucoma:32,Normal:225,Suspect Glaucoma:107,收集到的青光眼数据集图片较少,后续需要继续补充。代码如下,卷积模型仍然用:ResNet18。准确率达到70%,说明残差网络模型性能针对多分类图像数据集的预测性能比较优的。
2023-10-31 16:00:59
521
1
原创 深度学习实战案例一:第四课:开始训练,验证,测试
python可以相互在同一个文件夹下面的其他的py文件,因此我们调用设计好的data_loader.py的。Pokemon类,和resnet.py的ResNet18类,
2023-10-30 11:18:44
96
1
原创 深度学习实战案例一:第三课:构建Resnet:残差网络模型
简单的卷积层无法实现更加准确的图像识别,因此我们引入Resnet:残差网络模型,在相比较其他模型后得出,Resnet:残差网络模型有更好的效果。其实这两段代码改变的图像通道数,高,宽是一样的方便用后续代码进行累加。上面代码的卷积层:改变通道数,改变高宽。上面代码的卷积层:改变通道数,改变高宽。图像的size改变流程如下。,对应真实标签的5个分类。,经过 卷积操作,变为。
2023-10-30 10:42:14
174
1
原创 深度学习实战案例一:第二课:构建简单模型
利用Resnet 网络模型,每个周期内loss损失会从1.7左右降低到1.2左右,但是还是高于1.0,并且上一个周期的参数用于下一个周期,损失值又会重新变高,模型的泛化能力比较差。使用卷积神经网络+交叉熵损失函数+SGD优化器得到的效果很一般,所有图像跑一遍,每一个batch得到的交叉熵损失值大致在1.5左右,梯度跟新后,损失值也没太大变化,torch.nn.CrossEntropyLoss(input, target)的input是没有归一化的每个类的得分,而不是softmax之后的分布。
2023-10-28 21:30:15
151
1
原创 深度学习实战案例一:第一课:加载数据集
D:\Anaconda\envs\study\python.exe "D:\python pycharm learning\清华大佬课程\fisrt\pokemon1.py"
2023-10-26 00:09:36
231
原创 刘二大人《PyTorch深度学习实践》完结合集——第13课:循环神经网络(高级篇)——(源代码修改 在GPU下跑)
1:当使用GPU时,确保所有的tensor都在GPU上。但是,‘pack_padded_sequence’的‘lengths’参数应该始终保持在CPU上。为解决这个问题,可以在传递'seq_lengthpack’给‘pack_padded_sequence’之前,确保在CPU上。训练周期达到16次附件就已经到达准确率的峰值。
2023-10-21 23:14:28
329
1
原创 刘二大人《PyTorch深度学习实践》完结合集——第13课:循环神经网络(高级篇)——(源代码仅在CPU下跑)
【代码】刘二大人《PyTorch深度学习实践》完结合集——第13课:循环神经网络(高级篇)——(源代码仅在CPU下跑)
2023-10-21 22:36:24
64
1
原创 刘二大人《PyTorch深度学习实践》完结合集——第12课:循环神经网络(基础篇)——课后作业
D:\Anaconda\envs\study\python.exe "D:\python pycharm learning\刘二大人课程\P\p12.2.py"
2023-10-20 18:14:09
374
1
原创 刘二大人《PyTorch深度学习实践》完结合集——第12课:循环神经网络(基础篇)-embedding 函数解读
padding_idx=None,– 填充id,比如,输入长度为100,但是每次的句子长度并不一样,后面就需要用统一的数字填充,而这里就是指定这个数字,这样,网络在遇到填充id时,就不会计算其与其它符号的相关性。这里可以理解1*4维的input张量做了转置变成4*1的张量,0对应的是[-0.8736, 0.7243, 1.1653],对句子进行规整,即对长度不满足条件的句子进行填充pad(填充的值也可以自己选定),另外句子结尾的EOS也算作一个词。的shape,注意是会多添加一个。
2023-10-19 16:54:32
122
原创 刘二大人《PyTorch深度学习实践》完结合集——第12课:循环神经网络(基础篇)
D:\Anaconda\envs\study\python.exe "D:\python pycharm learning\刘二大人课程\P\P12.py"epoch =10 就得出之前结果ohlol。
2023-10-16 16:50:36
96
1
原创 刘二大人《PyTorch深度学习实践》完结合集——第11课:卷积神经网络(高级篇)
【代码】刘二大人《PyTorch深度学习实践》完结合集——第10课:卷积神经网络(高级篇)
2023-10-14 23:29:36
82
1
原创 刘二大人《PyTorch深度学习实践》完结合集——第10课:卷积神经网络(基础篇)
【代码】刘二大人《PyTorch深度学习实践》完结合集——第10课:卷积神经网络(基础篇)
2023-10-14 15:19:28
95
1
原创 刘二大人《PyTorch深度学习实践》完结合集——第9课:多分类问题
D:\Anaconda\envs\study\python.exe "D:\python pycharm learning\刘二大人课程\P\P9.py"
2023-10-13 18:47:57
117
原创 刘二大人《PyTorch深度学习实践》完结合集——第7课:处理多维特征的输入
【代码】刘二大人《PyTorch深度学习实践》完结合集——第7课:处理多维特征的输入。
2023-10-11 12:39:54
86
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人