
pytorch
文章平均质量分 59
Jackie_Wang11
while(days<=lifetime) {
++learning;
}
展开
-
Stable Diffusion Web UI + Anaconda环境 + 本地Windows系统部署
这里博主机器的cuda 是11.1版本,但按照之前的经验,在ananconda中安装cuda11.3是可以向下兼容的,原因其实很简单,anaconda可以做到环境隔离,即在创建好的环境中进行安装,不会影响其他程序或者模型的使用。原创 2023-04-15 20:26:49 · 4429 阅读 · 2 评论 -
nn.BCEWithLogisticLoss() & nn.BCELoss()的区别 ,nn.CrossEntropyLoss() & nn.NLLLoss()的区别
nn.BCEWithLogisticLoss() & nn.BCELoss()的区别 ,nn.CrossEntropyLoss() & nn.NLLLoss()的区别原创 2022-07-13 16:29:13 · 494 阅读 · 0 评论 -
Pytorch构建网络细节总结
区别:optimizer.step() 是对模型参数进行更新scheduler.step() 是对学习率进行更新.cuda() 只能指定GPUmodel.train() 和 model.eval() 原理与用法pytorch可以给我们提供两种方式来切换训练和评估(推断)的模式,分别是:model.train() 和 model.eval()。一般用法是:在训练开始之前写上 model.trian() ,在测试时写上 model.eval() 。1.model.train()在使用 pytor原创 2022-07-12 11:11:58 · 665 阅读 · 0 评论 -
Pytorch创建类时为什么要继承nn.Module以及如何使用nn.Module
nn.Module----pytorch 中的重要模块化接口torch.nn 是专门为神经网络设计的模块化接口,nn构建于autgrad之上,可以用来定义和运行神经网络nn.Module 是nn中重要的类,其包含网络各层的定义函数,即构造函数 def init(self),以及前向传递函数def forward(self,x)...原创 2022-06-13 09:35:59 · 2776 阅读 · 1 评论 -
Pytorch中的repeat()函数
pytorch中的repeat()函数可以对张量进行复制。当参数只有两个时,第一个参数表示的是复制后的行数,第二个参数表示复制后的列数。当参数有三个时,第一个参数表示的是复制后的通道数,第二个参数表示的是复制后的行数,第三个参数表示复制后的列数。接下来我们举一个例子来直观理解一下:>>> x = torch.tensor([6,7,8])>>> x.repeat(4,2)tensor([[6, 7, 8, 6, 7, 8], [6, 7, 8,原创 2022-05-01 09:42:36 · 2122 阅读 · 0 评论