- 博客(265)
- 收藏
- 关注
原创 【无标题】
注 : 因为函数中没有指定参数 dim,所以操作是会先将 x 展平为。,再 reshape 成原来的尺寸,得到。, 移动 1 位,变成。
2023-07-08 12:00:06
261
原创 PN结、二极管、三极管、三极管放大电路、上拉电路/下拉电路
B站 视频地址 :https://www.bilibili.com/video/BV1fB4y147Gn/
2023-06-30 13:11:25
492
原创 logits 与 pre-logits
深度学习源码中经常出现的logits其实和统计中定义的logit函数=log(p/1-p)没什么太大关系,logits可以看成神经网络最后一层全连接的输出*权重参数。该输出一般会再接一个softmax layer输出normalize 后的概率,用于多分类。pre-logits就是一个全连接层+tanh激活函数。层的输出就是 logits。
2023-05-28 11:29:08
754
原创 【python】@property 和 @staticmethod
property 和 @staticmethod 是 Python 中的两个装饰器,它们分别用于在类中创建属性或静态方法。
2023-04-04 23:24:17
698
原创 【MobileNet V2】MobileNet V2
没有残差结构在训练结束后,发现 depth-wise 卷积的很多参数的值都为0,原因有以下3个:depth-wise 卷积 权重数量太少;通道数处理太单薄,只能处理二维信息,没有处理到三维信息ReLU 导致小于0的输出都为0,参数也为0移动设备的低精度 数据表示Mobile Net V2 就以上的问题,做了进一步的改善。
2023-03-03 22:58:19
1193
原创 【MobileNet】MobileNet V1
1、MobileNets 基于流线型架构:流线型架构指的是像vgg那样,数据从头流到尾,没有resnet或desnet的那种跨层连接结构2、使用深度可分离卷积)来构建轻量级深度神经网络,在 损失一定的accuracy 的情况下,极大程度的减小了网络的计算量,适用于 计算能力较小的 移动应用 和 嵌入式应用。宽度乘数和分辨率乘数,可以有效地在 延迟(latency) 和 准确性(accuracy) 之间进行权衡。这些超参数允许模型构建者根据问题的限制条件为其应用程序选择合适大小的模型。α。
2023-02-28 18:39:07
489
原创 解析 xml 文件 - xml.etree ElementTree
假设有xml文件内容如下:1、导入模块 →\rightarrow→ 读取文件 →\rightarrow→ 获取根节点 →\rightarrow→ 获取根节点的标签与属性2、遍历一级子节点、获取子节点的标签 与 属性3、通过索引 获取数据rootrootroot是根节点root[0]root[0]root[0] 是下一级子节点的第1个元素root[0][1]root[0] [1]root[0][1]是下二级子节点的第2个元素4、Element.findall()、Element.fin
2023-02-23 12:03:02
1112
原创 【python】argparse 模块的使用、Pycharm中使用argparse
argparse 模块是 Python 标准库中提供的一个命令行解析模块,它可以让使用者以类似 Unix/Linux 命令参数的方式输入参数,并将参数解析为 Python 变量,从而方便使用者更加快捷的处理参数。
2023-02-22 14:06:41
1912
1
原创 【pytorch】自定义层
我们先介绍如何定义一个不含参数的自定义层。事实上,创建自定义层 与 使用 Module类 构造模型类似。下面的 CenteredLayer 类通过继承 Module类 自定义了一个将输入减掉均值后输出的层,并将层的计算定义在了forward函数里。(这个层里不含模型参数)之前的文章已经介绍了模型参数。Parameter类 其实是Tensor的子类,如果一个 Tensor 是 Parameter,那么它会自动被添加到模型的参数列表里。所以在自定义含模型参数的层时,我们需要将参数定义成Parameter。
2023-02-21 13:17:22
1221
原创 【pytorch】保存模型、加载模型
我们可以直接使用 save 函数 和 load函数 进行存储和读取。的可学习参数 (即权重和偏差),模块模型包含在参数中 (通过。注意,只有具有可学习参数的层(卷积层、线性层等) 才有。,其中包含关于优化器状态以及所使用的超参数的信息。是一个从参数名称隐射到参数。
2023-02-21 12:09:31
919
原创 【SSD 代码精读】之 model (Backbone)& loss
到此,我们的backbone 就构建好了,backbone 就是 resent-50 前半截,下面我们在backbone 的基础上,继续搭建起 model。后面几层的特征层输出分别为 (512,19,19)、(512,10,10)、(256,5,5)、(256,3,3)(256,1,1)3、累加 4个 位置的参数 ,即 将每个 box 的 ctr_x、ctr_y、w、h 的 loss 进行相加。在 backbone 的基础上,重新设计后半截的网络,构成完整的网络,用于特征层的输出,如下图。
2023-02-19 23:10:19
765
原创 激活函数nn.ReLU(inplace=True)中inplace的作用
因此当inplace=True时: 就是将从上层网络 nn.Conv2d 中传递下来的 tensor 直接进行修改,这样能够节省运算内存,不用多存储其他变量。利用in-place计算可以节省内(显)存,同时还可以省去反复申请和释放内存的时间。原文链接:https://blog.youkuaiyun.com/AugustMe/article/details/92589979。原文链接:https://blog.youkuaiyun.com/zhanly19/article/details/99232815。例如:x = x+1。
2023-02-13 09:44:59
1133
原创 python函数参数前面单星号(*)和双星号(**)的区别
在python的函数中,经常能看到输入的参数前面有一个或者两个星号,如下。这两种用法其实都是用来 将任意个数的参数导入到函数中。
2023-02-10 23:07:40
694
原创 【SSD】之 数据增强(Data Augmentation)
原论文因为默认只处理图像,而我们在做图像翻转的时候,需要连 ground truth box 的坐标一并翻转。所以我们需要重写那一套的操作。(mac系统下,只要按住 command 键,再点击,就可以查看源码,在源码上修修改改就可以)
2023-02-10 11:19:01
880
原创 6 -【Faster R-CNN 代码精读】之 Proposals 、 Filter Proposals
在上一篇文章【Faster R-CNN】之 AnchorGenerator代码精读中,我们获取到了 anchor 在原图中的坐标在上上篇文章【Faster R-CNN】之 RPN Head 代码精读中,我们得到了 预测出的 bounding box 的概率 以及 预测出的 bounding box 回归参数(regression parameters)。
2023-02-04 00:00:24
326
原创 4 -【Faster R-CNN】之 RPN Head 代码精读
在上一篇文章 【Faster R-CNN】之 backbone 代码精读 中,我们学习了创建 backbone,并将 batch 中的图片通过backbone 获得了 feature maps。batch 的 feature map size 类似为 [batch_size, out_channel, ]batch_size, 是根据 gpu性能,我们自己指定的。
2023-02-02 14:12:33
708
原创 5 -【Faster R-CNN】之 AnchorGenerator 代码精读
anchor 的作用:anchor 是用来做辅助计算的,用于和 (上节课说的,由RPN Head 计算出的)bounding box regression 一起,计算出 预测的 候选框的坐标信息。** 我理解 bounding box regression 是一个 相对位置信息,且是一个系数。
2023-02-02 12:04:31
1299
2
原创 3 -【Faster R-CNN】之 backbone 代码精读
在上一篇文章中,我们得到了图像尺寸统一的 batch 了,接下来,就是 feed 到 backbone 中 获取 feature map。
2023-02-01 13:17:59
669
原创 2 -【Faster R-CNN】之 Resize_and_Padding 代码精读
在上一篇文章【Faster R-CNN】之 Dataset and Dataloader 代码精读中,我们重写了 Dataset 和 Dataloader, 可以迭代的 读出 batch 数据了。每个batch 中的数据 包括 image 和 target, 数据形如:接下来,batch 中的 images 要传入 backbone 获得 feature map,但是当前这些 images 存在一个问题,就是这 batch 中的图像的尺寸 是不一致的,不能直接喂进 backbone。
2023-02-01 10:31:50
853
1
原创 1 -【Faster R-CNN】之 Dataset and Dataloader 代码精读
其为了节省内存,将图像按照尺寸大小进行了排序,尺寸小的和尺寸小的batch, 尺寸大的和尺寸大的batch,这样在之后padding的时候,小尺寸的就不用因为batch中有大尺寸的而padding 的太多。这是因为 默认的 batch 的打包方式是 stack,需要图像有相同的尺寸才能stack,我们这个时候的 image 不是相同尺寸(在之后的 Generalized RCNN Transform 的阶段,才会将 Batch 中的图像处理为相同尺寸),所以这里没法使用默认的 打包batch 的方式。
2023-01-31 15:29:41
589
原创 【SIFT】LoG 与 DoG
作为SIFT特征提取学习中的一个 拓展知识点,本文介绍了 Laplacian,Laplacian算子,LoG,Dog 与 LoG 相似的证明
2022-11-08 16:32:30
862
sift特征检测算法源码(Python版)
2022-11-13
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人