- 博客(4)
- 资源 (2)
- 收藏
- 关注
原创 用pytorch构造GELU激活函数
因为一些原因必须使用python2+低版本的pytorch来跑代码,其中就遇到了低版本pytorch没有封装GELU激活函数的情况,所以在网上把该函数的源码找到了,自己构造了一个基于nn.Module的版本:其中第一个注释掉了的return是gelu原文中提出的一种近似计算版本,而下面那一个是pytorch中封装的版本,实测第一种会和nn.GELU计算的值略有差异,因此使用第二种。...
2022-06-23 20:24:02
1899
原创 loss反向传播出错问题
在使用mse损失函数进行对抗攻击的时候,loss反向传播一直报错,最终改成如下形式才能够正常运行loss11 = F.mse_loss(logits, logits_target, reduction='none').sum(axis=1)loss12 = F.mse_loss(logits, logits_true, reduction='none').sum(axis=1)loss1 = 4 * loss11 - loss12loss = torch.mean(loss)optimizer
2021-09-27 09:48:49
536
原创 RGB图像保存格式问题
完成深度学习的图像处理任务后,尝试了save和imwrite两种保存方法,遇到了一些问题。1. img.save(filename)from PIL import Imageadv_sample = Image.fromarray(np.uint8(adv_sample))adv_sample.save(filename+'.jpg',quality=95)处理完的adv_sample是array格式,而save需要保存image,因此需要先格式转换再保存。2. cv2.imwrite
2021-09-07 09:09:50
981
原创 python深度学习并行训练踩坑记录
最近在做一个对抗攻击的任务,写的代码只能逐个样本进行处理,速度实在太慢且显卡性能剩余的太多,于是想并行处理提高效率。检索发现有以下实现方法:1.构造dataset实现多批量并行 2.多卡并行计算 3.单卡多进程计算。在尝试的过程中遇到了诸多问题,最终只实现了第三种方法。记录如下:1.构造dataset实现多批量并行根据https://www.cnblogs.com/Aiyuqianer/p/14091062.html理解了getitem函数的作用,编写代码如下,目的是传入一组图片及其文件名...
2021-09-06 10:03:59
474
磁盘阵列技术手册
2012-03-14
磁带备份技术全面解析手册
2012-03-14
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人