学习内容:
一、 self.label_emb=nn.Embedding(opt.n_classes, opt.n_classes)
self.label_emb = nn.Embedding(opt.n_classes, opt.n_classes)
主要关注的就是前面两个参数,其他一堆的参数一般省略,用到时再去搜索
主要是把前面的参数当成一个字典,从字典中取出后一个参数的数目的数据
例如:
embedding = nn.Embedding(5, 4) # 假定字典中只有5个词,词向量维度为4
nn.Embedding
通俗讲解pytorch中nn.Embedding原理及使用
二、np.prod()
用来计算所有元素的乘积,对于有多个维度的数组可以指定轴,如axis=1指定计算每一行的乘积
三、img = img.view(img.size(0), *img_shape)
上一期的用这个可以很完美的理解
四、torch.cat((self.label_emb(labels), noise), -1)
较为详细的解释
可以将图像与文本合并共同学习的生成网络+pytorch代码实现及代码详解
五、optim.Adam()参数说明
optim.Adam(params, lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0)
params:是待优化的参数,一般为网络的权重;
lr是学习率,可不指定,默认值是0.001;
betas:用于计算梯度以及梯度平方的运行平均值的系数,可不指定,默认值(0.9, 0.999);
eps:为了增加数值计算的稳定性而加到分母里的项,可不指定,默认值1e-08;
一些基础知识
(1) nn.Linear(in_feat, out_feat)
一层线性的神经网络,输入和输出的维度
(2) nn.Sequential()
torch.nn.Sequential是一个Sequential容器,模块将按照构造函数中传递的顺序添加到模块中。另外,也可以传入一个有序模块。
快速构造网络
(3) nn.Tanh()
Tanh(x)=tanh(x)=exp(x)+exp(−x)exp(x)−exp(−x)
>>> m = nn.Tanh()
>>> input = torch.randn(2)
>>> output = m(input)

b = [1,2,3,4,5,6]
for i , item in enumerate(b):
print(i, item)
输出是i为 0 1 2 3 4 5,i是下标,而item就是内容