2021-03-28

  1. 配置好了tensorboard. pytorch使用tensorboard需要pip tensorboard,tensorboardX。 tensorflow非必须,提示说不安装tensorflow功能会减少,但目前还没有用到高深的技巧。在服务器端训练好网络后,想要在本机浏览器打开,需要提前将服务器的tensorboard端口重定向到本机的端口,然后在浏览器使用本机的端口才可以打开。
    -p 端口号
    在这里插入图片描述
    16006为本机端口,6006为服务器端的tensorboard端口。
    在这里插入图片描述

  2. 写了weekly review。

  3. FLOPS (S大写) 是floating point operations per second的缩写,意指每秒浮点运算次数,理解为计算速度。是一个衡量硬件性能的指标。
    FLOPs(s小写),是floating point operations的缩写(s表复数),意指浮点运算数,理解为计算量。可以用来衡量算法/模型的复杂度。文章里大多数用的是这个。

#torch.repeat(tensor,(row_times, column_times)), torch.repeat_interleave(tensor, repeats, dim=None)
#torch.repeat()的第二个参数为每一个维度复制几次。如果只有两个维度,那么就是行和列,如果还有其他维度,那么就是在那个维度上复制几次。不过这个函数是整体复制,不能一行复制4次,然后下一行再复制4次。repeat_interleave()是做这个工作的
#torch.repeat_interleave()类似numpy.repeat.会按照元素复制。
x = [[1,2],[3,4]]
x = torch.tensor(x)
torch.repeat_interleave(x, 2)
# x = tensor([1,1,2,2,3,3,4,4]) ,如果不写维度就会将所有元素复制repeat次,然后拼接成一维tensor.
torch.repeat_interleave(x, 2, dim=1)
# x = tensor[
#[1,1,2,2],
#[3,3,4,4]
#]
torch.repeat_interleave(x, 2, dim=0)
# x = tensor([
#	[1,2],
#	[1,2],
#	[3,4],
#	[3,4]
# ])

  1. (存疑)batch_size是16,但运行的时候程序自动给我调成了8。可能是因为卡容量不够?
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值