神经网络pytorch阅读笔记(二)

本文详细讲解了PyTorch中nn.Embedding的原理与用法,涉及参数设置、np.prod操作,以及如何将图像与文本结合的网络示例。此外,还介绍了Adam优化器的关键参数和基本神经网络组件,如线性层和Sequential容器。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

学习内容:

一、 self.label_emb=nn.Embedding(opt.n_classes, opt.n_classes)

self.label_emb = nn.Embedding(opt.n_classes, opt.n_classes)

主要关注的就是前面两个参数,其他一堆的参数一般省略,用到时再去搜索
主要是把前面的参数当成一个字典,从字典中取出后一个参数的数目的数据

例如:
embedding = nn.Embedding(5, 4) # 假定字典中只有5个词,词向量维度为4
nn.Embedding
通俗讲解pytorch中nn.Embedding原理及使用

二、np.prod()

用来计算所有元素的乘积,对于有多个维度的数组可以指定轴,如axis=1指定计算每一行的乘积

三、img = img.view(img.size(0), *img_shape)

上一期的用这个可以很完美的理解
在这里插入图片描述

四、torch.cat((self.label_emb(labels), noise), -1)

较为详细的解释
可以将图像与文本合并共同学习的生成网络+pytorch代码实现及代码详解

五、optim.Adam()参数说明

optim.Adam(params, lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0)

params:是待优化的参数,一般为网络的权重;

lr是学习率,可不指定,默认值是0.001;

betas:用于计算梯度以及梯度平方的运行平均值的系数,可不指定,默认值(0.9, 0.999);

eps:为了增加数值计算的稳定性而加到分母里的项,可不指定,默认值1e-08;

一些基础知识

(1) nn.Linear(in_feat, out_feat)

一层线性的神经网络,输入和输出的维度

(2) nn.Sequential()

torch.nn.Sequential是一个Sequential容器,模块将按照构造函数中传递的顺序添加到模块中。另外,也可以传入一个有序模块。
快速构造网络

(3) nn.Tanh()

Tanh(x)=tanh(x)=exp(x)+exp(−x)exp(x)−exp(−x)

>>> m = nn.Tanh()
>>> input = torch.randn(2)
>>> output = m(input)

图取自百度
#### (4) enumerate
b = [1,2,3,4,5,6]
for i , item in enumerate(b):
    print(i, item)

输出是i为 0 1 2 3 4 5,i是下标,而item就是内容

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值