- 博客(64)
- 收藏
- 关注
原创 Mask R-CNN
Mask R-CNN 是基于 Faster R-CNN 的改进版本,用于实例分割任务,即在物体检测的基础上进一步为每个目标生成像素级的分割掩码。
2024-06-17 09:47:50
513
原创 Linux下配置Pytorch
pytorch与python 版本不匹配:初始我创建的conda环境python版本为3.12.3与其适配的cuda版本为11.8.但服务器端通过nviia-smi命令查看结果如下:最高安装cuda版本为11.7,于是在pytorch找之前版本的pytorch安装。则出现了版本冲突。解决方法:将python版本换为3.10即可。t=N7T8。
2024-05-31 16:51:05
827
原创 ONNX-模型部署中间格式
ONNX(Open Neural Network Exchange)是一种开源格式,用于表示深度学习模型。它由Facebook和微软于2017年联合创建,目的是在不同的深度学习框架之间提供互操作性,使模型可以在多个平台和工具之间无缝转换和部署。ONNX定义了一种中间表示(IR),包括计算图、操作符和张量,能够描述从训练到推理的整个模型。
2024-05-20 16:42:01
918
1
原创 膨胀 卷积
k = 3 若设置卷积 因子为1,2,9 对 2 而言 r2 = Max(9 - 2 * 2,-9 + 2 * 2, 2) 所以取5。例如,K = 3 若设置卷积 因子为1,2,5 对 2 而言 r2 = Max(5 - 2 * 2,-5 + 2 * 2, 2) 所以取2。设置规则为,ri = Max(r(i+1) - 2ri ,-r(i+1) + 2ri,ri) 取最大值函数,要满足ri< K。论文还说了,尽量设置膨胀因子为锯齿结构如 ,2 3 4 2 3 4 2 3 4 2 3 4。
2024-03-18 22:07:24
556
原创 ResNeXt网络-组卷积 减少参数个数
对于下半部分则为组卷积,卷积和大小为k * k,且输入Channel为Cin,但其被分组了,假设分了g组则每个组的输入channel为Cin/g,则卷积核深度则为Cin/g,又因为分组导致每个组channel_out为n/g,所以一个组的参数为 k * k * Cin/g * n/g ,又因为共g组,再cat拼接,则总参数为g * (k * k * Cin/g * n/g) = k * k * Cin* n/g.
2024-03-07 14:38:22
201
原创 Batch Nomalization 迁移学习
1.载入权重后训练所以参数 ->按理说效果最好2.载入权重后只训练最后几层参数3.载入权重后在原网络基础上再添加一层全连接层,仅仅训练最后一个全连接层。t=N7T8Batch Normalization详解以及pytorch实验_pytorch batch normalization-优快云博客https://blog.youkuaiyun.com/qq_37541097/article/details/104434557?
2024-03-07 14:05:51
196
原创 树
核心 :一边pop一边push,怎么知道要pop多少个呢?用一个int size;来记录上一层应该出多少个元素。pop上层元素前先记录该层总个数size,出一个则size--,一边出一边加其左右孩子,就解决了。总体思想是每次只让队列保留当前层的所有节点。是指从根节点到最远叶子节点的最长路径上的节点数。//弹出-和stack一样不返回元素仅仅弹出。//获取front指向元素。4_1二叉树的最大深度。方法一:深度优先递归。方法二:广度优先遍历。
2024-01-08 17:13:30
377
原创 Faster R-CNN
在Fast R-CNN基础上进一步合并,将原先的SS算法生成候选区域改为RPN网络生成,加快了候选区域的生成速度,其余和Fast R-CNN一样。
2024-01-04 22:05:32
437
原创 Fast R-CNN
相比于R-CNN其在对候选区域的特征提取部分进行了优化,并且将R-CNN中的类别预测边界框预测以及边界框预测调整进行了合并,提高了计算速度。%5Clambda。
2024-01-04 17:17:06
580
原创 R-CNN
R-CNN是首先生成许多候选框,然后再对每个候选框使用CNN进行特征提取,再将提取的特征送入到SVM(多少类别就对应多少个SVM分类器)进行二分类,最后再通过边界框回归去调整边界框的位置。
2024-01-04 16:21:26
384
原创 目标检测中的常见指标
FN: False Negative 漏检框数量。FP: False Positive IoU < 阈值 检测框数量。TP:True Positive IoU > 阈值 检测框数量。mAP:mean Average Precision 各类别AP的平均值。P-R曲线:Precision-Recall曲线。Recall:查全率(召回率)Precision:查准率。AP:P-R曲线下的面积。
2024-01-04 15:44:30
732
原创 链 表
ListNode(int x) : val(x), next(NULL) {}就是构造函数的列表初始化操作。Answer-将被删节点下一个val复制到待删除节点,然后将待删节点直接连接到下下一个节点即可。c++中结构体可以看作一个权限为public的类。其拥有成员变量、成员函数、构造函数等。3_1 删除链表中的节点。
2024-01-02 15:33:43
479
原创 int型为什么最大是2的31次方减1 最小是-2的31次方
但负数的原码反码补码不同,并且对于转为十进制是以原码的形式进行计算,只是计算机的存储是以补码进行存储的。int短整型为32位,并且知道计算机存储以补码的形式进行存储,而且正数的原码反码补码相同。1000 0000 0000 0000 0000 0000 0000 0000(原码)1000 0000 0000 0000 0000 0000 0000 0000(补码)11111111 11111111 11111111 11111111(反码)由于最高位符号位为1最小值则为-2147483648。
2023-12-26 21:25:52
604
原创 Linux基础(三)- 实用操作
Ctrl + c 强制停止Ctrl + d 退出或登出history 命令查看历史命令ctrl + a ,跳到开头ctrl + e 跳到结尾ctrl + <_ 跳前一个单词ctrl + —> 跳下一个单词clear 命令Ctrl + l 命令。
2023-11-06 20:30:39
75
原创 Linux基础(二)- 权限
普通用户的权限,一般在其HOME目录内是不受限的,一旦出去了HOME目录,则仅能读,无修改权限。超级用户,拥有系统最大权限su、exit命令,切换用户su来源switch user语法:su [ - ] 用户名exit 命令表示退回上一个用户,也可以ctrl + d语法:exitsudo 命令为普通命令授权,临时以root身份执行语法:sudo 其他命令为普通用户配置sudo认证用户 ALL = (ALL) NOPASSWORD :ALL3.保存并退出。
2023-11-06 09:37:39
165
原创 Linux基础(一)- 命令
示例ls -l /home/file ,ls命令本身,-l是选项 , /home/files 是参数cp -r test1 test2 ,cp是命令本身 , -r是选项 ,test1 test2 是参数。
2023-11-04 19:02:15
67
原创 DL-signal crop /mutiple crop
相比之下,"multiple crops"(多个裁剪)是指对每个输入图像进行多次裁剪,并将裁剪后的图像分别输入到模型中进行预测。然后,对于每个裁剪后的图像,模型会生成预测结果,并根据这些结果进行综合或后处理,例如平均或投票。"Single crop"(单个裁剪)是指在评估或测试期间,对每个输入图像仅进行一次裁剪,并将裁剪后的图像输入到模型中进行预测。通常情况下,裁剪的位置是在图像的中心或随机选择的位置。在某些情况下,单个裁剪可能足够进行准确的预测,而在其他情况下,多个裁剪可能有助于提高模型的性能。
2023-10-27 09:58:12
93
原创 函数高级-参数
注意:1.参数自左向右若出现了默认参数,后面都需要默认参数,不然报错2.若有函数声明,则函数声明和实现中只能有一个来设置默认参数,编译无错误,但运行报错。
2023-10-25 17:47:25
60
原创 矩阵计算-导数
基础数学计算尽量理解就好,重要的是记住输入和输出向量或矩阵的形状的变化。分子布局(默认向量为列向量)向量对标量求导,向量在分母则得到是行向量标量对向量求导,向量在分子则得到是列向量向量2(m,1)对向量1(n,1)求导,得到是矩阵(m,n)
2023-10-25 10:36:49
366
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人