目标检测论文笔记目录

论文笔记描述
YOLOv1(CVPR 2016) ✓ \checkmark
YOLOv2 (CVPR 2016) ✓ \checkmark
YOLOv3 (CVPR 2018) ✓ \checkmark
YOLOv4WongKinYiu/PyTorch_YOLOv4
YOLOv5ultralytics/yolov5
DenseBox (CVPR 2015) ✓ \checkmark
SSD (ECCV 2016) ✓ \checkmark
RCNN(CVPR 2014) ✓ \color {green}\checkmark
SPPNet(ECCV 2014) ✓ \checkmark
FastRCNN (ICCV 2015) ✓ \color {green}\checkmark
FasterRCNN(NIPS 2015) ✓ \checkmark
FCN(CVPR 2015) ✓ \checkmark
R-FCN (CVPR 2016) ✓ \color {green}\checkmark
CascadeRCNN (CVPR 2018) ✓ \checkmark
MaskRCNN (CVPR 2017) ✓ \checkmark
Dilated/Atrous Convolution (ICLR 2016) ✓ \checkmark
Deformable ConvNets v1(CVPR 2017) ✓ \checkmark
Deformable ConvNets v2 (CVPR 2018) ✓ \checkmark
IoUNet (ECCV 2018) ✓ \checkmark
GIoU(CVPR 2019) ✓ \checkmark
DIoU( 2019) ✓ \checkmark
Snip (CVPR 2018) ✓ \checkmark
ACNet(ICCV 2019) ✓ \checkmark
Soft NMS / Softer NMS+KL Loss (ICCV2017)/(CVPR 2019) ✓ \checkmark
OHEM(CVPR 2016) ✓ \color {green}\checkmark
Focal Loss/RetinaNet(CVPR 2017) ✓ \checkmark
VGG (ICLR 2015) ✓ \checkmark
ResNet / ResNeXt (CVPR 2015)/(CVPR 2017) ✓ \checkmark
DenseNet (CVPR 2017) ✓ \checkmark
Inception系列 (2014-2017) ✓ \checkmark
EfficientNet ( ICML 2019) ✓ \checkmark
HRNet (CVPR 2019) ✓ \checkmark
FPN (CVPR 2017) ✓ \checkmark
DetNet (ECCV 2018) ✓ \checkmark
MobileNet v1(CVPR 2017) ✓ \checkmark
MobileNets v2 (CVPR 2018) ✓ \checkmark
ShuffleNet v1 (CVPR 2017) ✓ \checkmark
ShuffleNet v2 (ECCV 2018) ✓ \checkmark
CornerNet(CVPR 2018) ✓ \checkmark
CenterNet(CVPR 2018) ✓ \checkmark
FCOS(CVPR 2019) ✓ \checkmark
Reppoints (ICCV 2019) ✓ \checkmark
### 关于夜间行人检测的研究进展 夜间行人检测是一个具有挑战性的研究领域,尤其是在低光照条件下,传统基于可见光的图像处理方法难以有效提取目标特征。因此,近年来的研究主要集中在跨模态学习和多传感器融合技术上。 #### 跨模态行人重识别 (RGB-IR) 为了应对夜间环境下的行人检测问题,研究人员提出了 RGB-IR 跨模态行人重识别的方法[^1]。这种方法通过结合可见光摄像头(RGB)和红外摄像头(IR),利用两种不同模态的数据来增强模型对行人的表征能力。具体来说: - **数据预处理**:由于 RGB 和 IR 图像之间的域差异较,通常需要设计特定的数据增强策略以减少这种差距。 - **特征对齐**:采用深度学习框架中的对抗训练机制或自监督学习方法实现两个模态间的特征空间对齐。 - **联合优化**:构建端到端网络结构,在同一框架下同时完成身份匹配任务和其他辅助任务(如属性预测)。 以下是几个重要的研究方向和技术突破: 1. **域适应算法**:解决因设备型号、天气条件等因素引起的分布偏移问题; 2. **注意力机制引入**:突出显示局部区域的重要性从而提高区分度; 3. **生成对抗网络(GAN)** 应用:用于合成高质量伪标签样本扩充有限的真实配对标注集规模; 对于希望获取相关论文PDF版本或者进一步了解该领域的读者而言,可以尝试访问以下资源平台检索关键词组合:"Nighttime Pedestrian Detection", "Cross-modal Person Re-ID" 或者查阅顶级会议(CVPR, ICCV, ECCV)近年收录的文章列表。 ```python import requests from bs4 import BeautifulSoup def search_papers(query): url = f"https://scholar.google.com/scholar?q={query}&hl=en&as_sdt=0%2C5" headers = {'User-Agent': 'Mozilla/5.0'} response = requests.get(url, headers=headers) soup = BeautifulSoup(response.content, "html.parser") papers = [] for item in soup.find_all('div', class_='gs_r gs_or gs_scl'): title = item.find('h3').text.strip() link = item.find('a')['href'] abstract = item.find('div', class_='gs_rs').text.strip()[:200]+'...' papers.append((title,link,abstract)) return papers papers = search_papers("nighttime pedestrian detection cross modal person re id") for idx,(t,l,a) in enumerate(papers[:5]): print(f"{idx+1}. {t}\n{l}\n{a}\n\n") ``` 上述脚本可以帮助快速定位一些公开可获得的相关学术资料链接地址及其简介描述信息摘要部分展示出来供参考选用。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值