自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(17)
  • 收藏
  • 关注

原创 3D点云配准RPM-Net模型解读(附论文+源码)

3d点云配准模型

2025-04-04 14:25:06 780

原创 BEVFormer模型解读(附源码+论文)

(有中文版大家就不要吃那个苦啦)老规矩,看一下效果。

2025-03-28 10:02:51 563

原创 Medical-Transformer模型解读(附源码+论文)

看看效果,医学的细胞图像分割,上面一行是预测的,下面一行是真实标签。我就跑了400个epochs,数据集也比较小,跑了几分钟,所以效果可能没那么明显的好。这个是官方给的一个对比图。

2025-03-20 16:38:33 874

原创 Swin Transformer模型解读(附源码+论文)

Swin Transformer

2025-02-27 10:00:00 1140 4

原创 [顶会]RRID模型解读(附源码+论文)

这次用的数据集是market1501,这是一个清华校园的数据集,比较小,我们来看一下这个数据集。这个数据集前面的内容截取的不是很好,得往后拖拖,我们来看这个绿色衣服的。首先前面的00000202代表ta的行人ID,一共有1500个ID。后面的0001-0006都是摄像头的编号,一共有6个摄像头。接着摄像头后的编号为当前摄像头下的图像编号。比如00000202_0004_00000003.jpg表示行人ID为202的在第4个摄像头下的第3张图片。

2025-02-24 15:54:49 621

原创 行人重识别模型解读(附源码+论文)

行人重识别

2025-02-18 13:34:31 965

原创 CycleGAN模型解读(附源码+论文)

老规矩,先看看效果。

2025-01-27 14:28:08 1296 2

原创 商汤LoFTR局部特征关键点匹配模型解读(附源码+论文)

老规矩,先看一下效果。

2024-12-17 10:00:00 1850 2

原创 Lane Detection车道线检测模型(附源码+论文)

(关键部分注释详细)看看效果。

2024-12-11 19:49:31 4882 7

原创 LapDepth深度估计模型(附源码+论文)

看一下效果。

2024-12-08 12:00:03 2288

原创 3D点云-Pointnet++模型解读(附源码+论文)

(关键部分代码注释详细,参考(源码基于TensorFlow)(分类任务)(部位分割任务)(语义分割任务)给大家先看一下数据集,这是一个3D点云的飞机,应该能看出来吧。它是由很多个点组成的3维数据,与平时图像、视频这些2D数据不一样。这张图大家应该能感受到点云的无序性。点x1与点x2互换了位置,对数据没有任何影响,点的排列顺序不影响其几何结构。我们再看一下部位分割任务的数据。应该能看出来是把枪吧,我给倒过来了,因为蓝色和背景重在一起看不清。不同的颜色代表不同的位置。可以看一下数据的组成。

2024-12-04 18:22:49 3443 5

原创 基于YOLO11的DeepSort讲解(附源码+论文)

(我在别人基于YOLO5的基础上改的YOLO11代码,不过原作者已经将项目扩展的非常庞大了,有兴趣的可以去看一下看这篇文章前需要了解的基本知识,我这里不说,只讲的部分。先看一下效果。

2024-12-02 11:49:41 5678 5

原创 EfficientDet模型解读(附源码+论文)

(建议看我的,关键部分代码注释详细,参考。

2024-11-27 10:00:00 1911

原创 DETR模型解读(附源码+论文)

DETR(DEtection TRansformer)是一种基于Transformer的目标检测模型,它抛弃了传统目标检测中的手工设计流程(如候选框生成和NMS),实现了端到端的检测框架。

2024-11-24 15:17:48 2145 6

原创 VIT模型解读(附源码+论文)

(建议看我的,因为我都整理好了,而且代码注释的很详细。想看源码的话可以去官网)传统的图像处理都是用的卷积,直到多头注意力机制横空出世,NLP取得飞跃发展。有机智的学者发现,将其应用到图片处理…Vision Transformer (ViT) 是一种基于 Transformer 的图像分类模型,其核心思想是将图像切分成小的 patch(图像块),然后将每个 patch 当作序列输入 Transformer 模型进行处理,这张图应该看的很明白。

2024-11-22 13:08:44 1105 2

原创 基于deeplabv3_resnet50的超声心动图图像分割(附源码+论文)

所以对于模型的话没有什么可以学的点,不过很适合初学者学会如何把现有的模型应用到自己数据集,做自己的项目。代码链接:https://github.com/xiaoxijio/deeplabv3_resnet50-Echocardiographic-image-segmentation(自己复现的代码,注释非常详细,如果要看源码可以去官网查看)数据集夸克链接:https://pan.quark.cn/s/8b7f9bbde7a4 (建议用网盘下,官网下麻烦+慢)这篇论文的代码的一个复现。

2024-11-21 16:18:29 518

原创 DeepLab v3plus 模型解读(附源码+论文)

DeepLabV3plus模型解读

2024-11-19 15:59:42 2460

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除