- 博客(26)
- 收藏
- 关注
原创 avg = nn.AdaptiveAvgPool2d(1) 和 torch.mean
import torchimport torch.nn as nna = torch.rand(2,3,4,4)nn.AdaptiveAvgPool2d(1),就是将各4*4的矩阵变成1*1.torch.mean:可以理解为,对哪一维做平均,就是将该维所有的数做平均,压扁成1层(实际上这一层就给合并掉了),而其他维的形状不影响。nn.AdaptiveAvgPool2d(1),就是将各4*4的矩阵变成1*1.avg = nn.AdaptiveAvgPool2d(1)(a).
2022-05-25 14:01:11
1886
1
原创 windows下的./ 和 ../
"./":代表目前所在的目录。" . ./"代表上一层目录。"/":代表根目录。import osjjpath = "./world"if not os.path.exists(jjpath): os.makedirs(jjpath)会在本文件当前位置创建名为world的文件夹import osjjpath = "../world"if not os.path.exists(jjpath): os.makedirs(jjpath)会在本文...
2022-05-24 16:34:26
1928
原创 单通道图片
import torchimport randomimport numpy as npimport osimport matplotlib.pyplot as pltfrom PIL import Imageimge = np.random.randint(0,256,size=(20,10))#最小的那个数字0表示为黑,最大的那个数字256表示为白# image = np.random.randint(0,256,size=(20,10,3))plt.imshow(imge,cmap=.
2022-05-18 10:48:52
689
1
原创 学习率下降---cos
import mathfrom torch.utils.tensorboard import SummaryWriterdef yolox_warm_cos_lr(lr, min_lr, total_iters, warmup_total_iters, warmup_lr_start, no_aug_iter, iters): # 1e-4 1e-6 100 3 1e-5 .
2022-05-16 11:03:01
1438
1
原创 dataloader的长度
数据集/batchsize比如数据集共有10582张图片,batchsize设为26。那么len(dataloader) = 10582/26=407
2022-05-14 21:00:23
3068
1
原创 关于生成图片
数组生成图片image = Image.fromarray(np.uint8(arr))#arr的shape必须是3在后面,比如(375,500,3)tensor生成图片trans = transforms.ToPILImage()image = trans(tensor)#tensor的shape须是3在后面,比如(3,375,500),而且就应该是三维的#如果给的是四维的tensor,会报错 pic should be 2/3 dimensional. Got 4 di
2022-05-14 20:11:02
2730
2
原创 关于tensorboard使用的注意事项
1、这个.py文件不要命名为tensorbord.py。2、使用代码tensorboard --logdir=logaaa --port=10086(自定义,防止和别人冲突)前,要cd到对应的目录下,logaaa文件夹的上级目录当中。
2022-05-13 15:54:06
217
原创 图像 -----> array与tensor的不同
#image的size为(w,h)即(w = 1000,h = 500)img_arr = np.asarray(image) #将image转换成arrayimg_tesnor = trans(image) #image转换成tensor,其中函数trans自定义的。测试可知,image在array中表示为(H,W,C)在tensor中表示为(C,H,W)...
2022-05-08 17:29:24
1245
原创 pytorch笔记
PIL :PIL.JpegImageFile类型 Image.open(img_path)tensor :tensor类型 transforms.ToTensor(img)narrays :numpy.ndarry类型 cv2.imread(img_path) 或者 np.array(img)
2022-05-02 23:52:14
1042
原创 cat、stack的理解
···for example,在两个tensor中,除了要cat的dim位置的数字可以不一致外,其他位置的数字必须一样。例如一个老师记录了 4个班级、32个学生、8门课程 【4,32,8】,记a1另一个老师记录了5个班级、32个学生、8门课程 【5,32,8】,记a2用torch.cat([a1,a2],dim=0) ,则为【9,32,8】stack和cat不同的是,会创建一个新的维度,而且要各tensor的shape和size要一样例如一个老师记录了 一个班级、32个学生、8门..
2022-04-28 00:17:56
607
1
原创 3*3卷积核优势
https://www.bilibili.com/video/BV1LT4y1v7CM?p=3232P最外面的那个3是指三次的卷积操作才走到最后,也是指3个不同的3*3卷积核
2022-04-27 19:18:03
2285
原创 pytorch 安装
conda create -n pytorch python=3.6conda install pytorch==1.10.0 torchvision==0.11.0 torchaudio==0.10.0 cudatoolkit=11.3
2022-04-22 14:05:29
2833
原创 VOC数据集分类
名字类=["背景","飞机","自行车","鸟","船","瓶子","巴士","汽车","猫","椅子","牛","餐桌","狗","马","摩托车","人","盆栽","绵羊","沙发","火车","电视监视器"]
2022-04-21 15:45:20
1364
原创 下载源地址
-i https://pypi.douban.com/simple-i https://pypi.tuna.tsinghua.edu.cn/simple
2022-04-17 18:36:41
1226
原创 下载Microsoft visual studio code 很慢很慢
https://az764295.vo.msecnd.net/stable/dfd34e8260c270da74b5c2d86d61aee4b6d56977/VSCodeUserSetup-x64-1.66.2.exe把下载链接换成上面这个
2022-04-14 16:47:09
189
原创 深度学习中batch、epoch、 iteration和batch size理解
(1)batch:将数据集分成几个 batch,每一个batch数据的数量就是[batch size],在一个 epoch 中,batch 数和迭代数是相等的。(2)batch size:批大小。一个 batch 中样本总数。在DL中,一般采用SGD训练,即每次训练在训练集中取batch size个样本训练;(3)iteration:1个iteration等于使用batch size个样本训练一次;(4)epoch:1个epoch等于使用训练集中的全部样本训练一次;举个例子,训练集有1000个
2022-04-13 15:22:20
1977
3
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人