加载pth参数的文章
https://zhuanlan.zhihu.com/p/55991450
参考文章
https://blog.youkuaiyun.com/on2way/article/details/72773771
https://blog.youkuaiyun.com/xg123321123/article/details/78034859?utm_medium=distribute.pc_relevant.none-task-blog-baidujs_baidulandingword-7&spm=1001.2101.3001.4242
GAN强大之处在于可以自动的学习原始真实样本集的数据分布,这是GAN的核心优化目标分两步
D(X)代表真实图片标签式1,假的是D(G(Z))标签为0,maxD就是指要最大化真实图片与最大化(1-生成图片),对生成器G而言目标就是最小化(1-生成图片)
对于G是min,D是max。
虽然不知道两者的分布,但是可以采样让D去计算差别
给pdata高分,pg低分
二者等价,TRAIN D = TRAIN BINARY CLASSIFIER
图像数据集分布:假设一个图片是2562563,则该图片可视为2562563维空间中的一个点,该图片集中多个图片就是多个点并且存在分布规律。
颜色分布
11卷积核的作用
降维( dimension reductionality )。比如,一张500 * 500且厚度depth为100 的图片在20个filter上做11的卷积,那么结果的大小为50050020。
升维
卷积核的个数大于深度
卷积核又名过滤器(filter)。
每个卷积核有三个属性:长宽深,这里一般深度不需要自己定义,深度是和输入的数据深度相同;
有多少个卷积核就有多少个feathermap;
卷积核的个数也就是可以有多个卷积核,并且数值不同
卷积核的个数就对应输出的通道数(channels),这里需要说明的是对于输入的每个通道,输出每个通道上的卷积核是不一样的
全连接层
全连接层的每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。
假设上一层结构为77512
使用4096个77512的卷积核(每个卷积核应该不一样)得到全连接结果,4096经验值的设定也是根据分类数目的大小进行设计
正向传播:从输入开始,沿着神经网络的层次一步步计算得到损失函数。
LSTM
LSTM的输入是按顺序(批次)
time_strmp:like分四步输入
input_size:用多少位表示每个字母
return_seq:反应是输出每个字母的特征还是最后的,false最后一个
当返回true的时候输出是cell_size*time_stemp
onehot:一行只有一个1其余都是0
In [3]: y_train = [1, 0, 3, 4, 5, 0, 2, 1]
In [4]: “”" Assuming the labeled dataset has total six classes (0 to 5), y_train is the true label array “”"
In [5]: np_utils.to_categorical(y_train, num_classes=6)
Out[5]:
array([[ 0., 1., 0., 0., 0., 0.],
[ 1., 0., 0., 0., 0., 0.],
[ 0., 0., 0., 1., 0., 0.],
[ 0., 0., 0., 0., 1., 0.],
[ 0., 0., 0., 0., 0., 1.],
[ 1., 0., 0., 0., 0., 0.],
[ 0., 0., 1., 0., 0., 0.],
[ 0., 1., 0., 0., 0., 0.]])
g网络的任务是学习一个px,也就是数据的分布,没有人知道px到底是什么样子
卷积能够提取边缘信息的原理是算子,也就是做差值,差值明显的地方会被提取出来
batchsize不是越大越好
lr也不是越小越好