
pytorch
lei_qi
这个作者很懒,什么都没留下…
展开
-
手动释放Linux显卡显存
1、输入命令fuser -v /dev/nvidia*查看显卡占用2、使用命令kill -9 [PID]删除占用进程的PID(即上图中的PID一列原创 2021-12-20 22:05:25 · 4069 阅读 · 0 评论 -
直接在colab 打开github 的 ipynb【无需复制,只需一步】
https://github.com/aaa/****.ipynb将https://github.com/ 替换为https://colab.research.google.com/github/ 就可以直接在colab 打开github 的 ipynb原创 2021-11-11 21:01:10 · 1176 阅读 · 0 评论 -
解决Bert 报错:AttributeError: ‘str‘ object has no attribute ‘softmax‘
解决Bert 报错:AttributeError: ‘str’ object has no attribute ‘softmax’需要将这里改为:output= self.bert(input_ids = batch_seqs, attention_mask = batch_seq_masks,token_type_ids=batch_seq_segments, labels = labels)loss = output.losslogits = output.logits...原创 2021-08-04 13:00:40 · 2722 阅读 · 3 评论 -
解决 RuntimeError: Error(s) in loading state_dict for : Missing key(s) in state_dict
使用torch.nn.DataParallel多卡训练模型之后,加载模型前也需要打开多卡读取模型。我最近使用多卡训练了一个模型。保存的方式是state_dict的方式。然后在加载模型的时候就一直出错。raise RuntimeError(‘Error(s) in loading state_dict for {}:\n\t{}’.format(RuntimeError: Error(s) in loading state_dict for BertMultiClassification:Missi原创 2021-07-09 15:19:08 · 15808 阅读 · 4 评论 -
Pytorch 如何对已经训练好的模型进行微调(Fine Tuning)
开始配置网络,由于ImageNet是识别1000个物体,我们的狗的分类一共只有120,所以需要对模型的最后一层全连接层进行微调,将输出从1000改为120model_ft = models.resnet50(pretrained=True) # 这里自动下载官方的预训练模型,并且将所有的参数层进行冻结for param in model_ft.parameters():param.requires_grad = False这里打印下全连接层的信息print(model_ft.fc)num_fc原创 2021-05-15 20:21:22 · 1908 阅读 · 0 评论 -
PyTorch中的view的用法
PyTorch中的view的用法torch.view(a,b,…),其中参数a=2,参数b=3决表示将一维的向量 重构成2*3维的张量。torch.view(-1)或者torch.view(a,-1).表示-1参数是需要计算机自己计算的。原创 2021-04-26 15:12:55 · 294 阅读 · 0 评论 -
ReduceLROnPlateau pytorch动态修改学习率
ReduceLROnPlateau:这是常用的学习率策略之一。应用本策略时,当特定的度量指标,如训练损失、验证损失或准确率不再变化时,学习率就会改变。通用实践是将学习率的原始值降低为原来的1/2~1/10。ReduceLRInPlateau的实现如下所示。...原创 2021-04-26 14:52:09 · 7522 阅读 · 0 评论 -
深度学习网络最后一层的激活函数与损失函数的选择表
原创 2021-04-26 14:48:10 · 843 阅读 · 0 评论 -
在Pytorch中应用权重正则化
L1正则化: 权重系数的绝对值之和被添加到成本中。通常称为权重的L1范数。L2正则化 :所有权重系数的平方和被添加到成本中。通常称为权重的L2范数Pytorch 提供了一种使用L2正则化的简单方法,就是通过在优化器中启用weight_decay 参数:model = Architecturel(10,20,2)opotimizer = torch.optim.Adam(model.parameters(),lr=1e-4,weight_decay=1e-5)参考:Pytorch 深度学习.原创 2021-04-26 14:36:32 · 1209 阅读 · 0 评论