- 博客(14)
- 收藏
- 关注
原创 简单介绍一下DCGAN
之前读了A Method for Improving CNN-Based Image Recognition Using DCGAN.这篇论文接下来对这篇文章做一个总结,可能理解有一部分可能是错的,请大家自行分析。 先贴出DCGAN的整体结构如下图,这个图片是在github上找的可以看出生成器与判别器都是由CNN组成的,但是在论文中作者对CNN做了一些改进,如下几点 1.加入了归一化层如BN层(这里不做过多讲解,会在之后的文章介绍各种归一化层...
2021-12-07 12:14:14
1687
原创 出现 Expected object of scalar type Long but got scalar type Int for argument #2 报错
当我运行代码时,出现了标题样式的报错,经过网上的搜索,最后发现是损失函数CrossEntropyLoss()的问题。问题是出现在我的输入类型不同,因为该损失函数的输入类型应该是long型的所以修改方法如下图所示如图所示我只要把我的labels变量改成long型之后,程序就可以继续运行。...
2021-12-03 10:04:12
2059
1
原创 卷积层、池化层计算公式
本文章简单记录一下计算方法,因为每次都记不住,每次都要百度太麻烦了。 卷积层:(输入图片大小-卷积核大小+2*padding)/strides+1 例如上图,输入图片大小256*256,in_size=3,out_size=64,卷积核大小4*4,strides=2,padding=1。根据公式计算得到128*128*64。其实简单理解通道数可以提取图像更多的特征,可能这个想法并不是特别的准确。 池化层:(输入图片大小-卷积核大小+2*paddi...
2021-12-02 20:04:08
7894
4
原创 简单介绍一下CGAN
这篇文章简单介绍一下之前读的一篇论文Conditional Generative Adversarial Nets的一些理解,读的时候难免有理解错误的地方,希望大家可以理解。 它与原始的GAN其实没有什么区别,最大的区别就是在训练的时候加入了标签进行训练。例如训练判别器的时候需要把真实图片加上它的标签一起进行训练。本文使用的是MNIST训练集,当然这个标签需要变成独热向量,简单解释一下就是如果这个标签是0的话那么它的独热向量就是[1,0,0,0,0,0,0,0,0,0]剩下的以...
2021-12-02 12:52:09
1923
原创 不断减小学习率,提高训练精度
通过读了DCGAN的相关论文,其中有一个章节介绍了通过学习率的不断下降,可以提高训练的精度,本篇文章简单介绍一下实验的效果,本文没有使用论文中学习率下降的公式,只是简单的进行缩小。 上图是论文中的计算公式,其中decay_rate是超参数文章中给出的值是0.95。接下来简单介绍一下整体设计。数据集使用的是CIFAR-10,识别十个类别,一共训练5轮,代码使用的kaggle上一位大佬的代码。 上图是最终的训练结果,可以看出效果其实并不是特别的好,所以我试着...
2021-12-01 16:57:31
1694
原创 出现if __name__ == ‘__main__‘: freeze_support()提示
可能是因为num_workers不为0,若要在windows使用多线程必须添加if __name__ == '__main__':不然会出现报错,设置成0即可
2021-11-28 22:46:31
3284
4
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人