
目标检测
TTTree_
这个作者很懒,什么都没留下…
展开
-
关于Arcface loss的理解和代码
最近看了Arcface,建议先去看下原论文,然后结合博客和代码便于理解。记录一下比较好的博客:https://blog.youkuaiyun.com/qq_34914551/article/details/86515184https://blog.youkuaiyun.com/qq_40859461/article/details/86771136代码:(github上好像是有实验版本)https://blog.youkuaiyun.com/lmb09122508/article/details/90055316...原创 2022-03-07 11:40:10 · 937 阅读 · 0 评论 -
python+opencv目标检测图像平移、旋转、融合
1.平移随机获取平移点后直接平移图像即可。2.旋转先利用cv2.getRotationMatrix2D(获得仿射变化矩阵),再cv2.warpAffine(进行仿射变化),如:angle = np.random.randint(0, 90, 1)[0] # 随机获取旋转角度 0-90顺时针h, w = image.shape[0],image.shape[1]M = cv2.getRotationMatrix2D((w/2,h/2),angle,1)res = cv2.warpAffine(i原创 2021-08-19 17:33:21 · 990 阅读 · 0 评论 -
关于图像梯度、散度、泊松融合
在看泊松融合的时候复习了一下梯度、散度(大学学的全还给老师了……图像梯度计算图像中的梯度和散度看完上面两篇文章大致可以理解如何求梯度,为什么对梯度求偏导再相加的和为散度,然后可以看图像融合之泊松融合python 实现泊松融合:https://blog.youkuaiyun.com/aitail/article/details/106002129https://zhuanlan.zhihu.com/p/68349210...原创 2021-08-18 16:07:00 · 765 阅读 · 0 评论 -
ffmpeg的使用
用到了ffmpeg,记录一下。总的来说,使用ffmpeg截视频,抽帧比opencv快的多。按照视频的时间截取:commd = ‘ffmpeg -accurate_seek -i {path} -vcodec copy -ss {begin} -t {end} ./output4.mp4’.format(path=’./input.mp4’, begin=‘00:00:00’,end=‘00:00:02’)按照帧数截取视频:commd = ‘ffmpeg -i {path} -vf t原创 2021-08-17 12:07:59 · 570 阅读 · 0 评论 -
关于anchor box, RPN, ROIalign
记录一下看到的anchor box相关文章,写得不错:目标检测中的Anchor详解faster R-CNN中anchors 的生成过程(generate_anchors源码解析)原创 2021-08-12 14:37:10 · 275 阅读 · 0 评论 -
关于mmdetection的一些记录
看到一些博客写的还行,记录一下MMDetection检测框架概述MMDetection中文文档—2.入门原创 2021-07-20 10:42:47 · 190 阅读 · 0 评论 -
ECCV 2020 DETR:《End-to-End Object Detection with Transformers》
最近在学这篇文章方法,先记录一下看到比较好的博客,有机会再更。object queries : https://blog.youkuaiyun.com/u010734277/article/details/106502774Transformer: https://baijiahao.baidu.com/s?id=1651219987457222196&wfr=spider&for=pc...原创 2020-11-03 20:34:09 · 731 阅读 · 0 评论 -
深度学习中训练集正负样本数量不均衡问题
最近课题中遇到了这个问题,目标检测任务,anchor-free算法,一张特征图128*128,可能只有8个左右的正样本点,其他全是负样本点,训练起来效果很差。目前只是记录一下搜集到的解决方法,真正解决之后再来更新。Focal loss这应该是容易想到的方法。https://zhuanlan.zhihu.com/p/113716961https://www.cnblogs.com/areaChun/p/11900799.htmlhttps://blog.youkuaiyun.com/sinat_28454原创 2020-07-09 16:13:33 · 3410 阅读 · 0 评论 -
YOLOv3的训练、测试、fine-tuning过程中遇到的问题
先占个坑。1.train时遇到错误:UserWarning: indexing with dtype torch.uint8 is now deprecated, please use a dtype torch.bool instead解决方法: https://blog.youkuaiyun.com/BBZZ2/article/details/101022935...原创 2019-10-08 17:11:13 · 1929 阅读 · 0 评论 -
对YOLO-v3的理解及阅读笔记
YOLO-v3 阅读笔记YOLO-v3论文标题:《YOLOv3: An Incremental Improvement》。论文地址:https://pjreddie.com/media/files/papers/YOLOv3.pdf。项目官网:https://pjreddie.com/darknet/yolo/(当然GitHub上也有很多复现啦)YOLOv3的论文读起来很有趣,又短又好(?),...原创 2019-09-14 10:25:58 · 768 阅读 · 0 评论 -
对YOLO-v2的理解及阅读笔记
YOLO-v2 阅读笔记YOLO-v2论文标题:《YOLO9000:Better, Faster, Stronger》,CVPR2017的文章。论文地址:(懒得写链接了)。论文复现代码:http://pjreddie.com/yolo9000/这篇文章其中提出了两种模型,YOLOv2和YOLO9000.但是少了很多细节,比如损失函数的设计、先验框的匹配原则等,想要真正搞懂需要花不少力气看源码。...原创 2019-09-13 16:01:38 · 723 阅读 · 0 评论 -
对YOLO-v1的理解及阅读笔记
写在最前面开始写博客是想记录学习,也是鞭策自己。学习过程中发现网上许多博文不甚清楚,或者看过就忘,整理的过程增加了一些自己的理解,也算不小的收获。刚刚入门,难免出错,如有问题请不吝赐教,也欢迎讨论。最后,我想我至少会认认真真更新到毕业吧(大概YOLO-v1 阅读笔记YOLO-v1论文标题:《You Only Look Once: Unified, Real-Time Object Dete...原创 2019-09-11 20:59:20 · 450 阅读 · 0 评论