自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(33)
  • 收藏
  • 关注

原创 Mamba架构讲解

传统状态空间模型(SSM)为了避免存储庞大的隐状态,会固定参数(不随输入变化)并走高效计算路径,但这样缺乏内容推理能力;这个新模型给 SSM 加了 “选择机制”—— 让参数随输入动态变化,能根据当前内容选信息;同时通过硬件优化(只在 GPU 高速存储里处理隐状态),既解决了传统 SSM 的局限,又没牺牲效率,是 Mamba 的核心模块结构。引入选择机制的动机我们认为序列建模的核心问题是将上下文压缩到更小的状态中。事实上,我们可以从这一角度理解主流序列模型的权衡取舍。

2025-11-29 09:59:18 1179

原创 VM-UNET模型简介

VM-UNet(Vision Mamba UNet)是首个完全基于状态空间模型(State Space Model, SSM)的医学图像分割架构,标志着 Mamba 系列模型在医学影像领域的开创性应用。由上海交通大学研究团队于 2024 年提出。

2025-11-26 10:21:29 1112

原创 医学图像分割三大代表性架构简介:CNN、Vision Transformer 与 Mamba

卷积神经网络(CNN)是医学图像分割领域最早被广泛采用、也是至今最为成熟和可靠的深度学习架构。自2015年 U-Net 模型提出以来,基于 CNN 的方法迅速成为该领域的黄金标准,并在大量临床任务中展现出卓越的性能,包括器官分割、肿瘤定位、血管提取等。Vision Transformer(ViT)最初为自然图像分类设计,但自2020年后迅速被引入医学图像分析领域,并催生了一系列专用于分割的架构。与传统卷积网络不同,ViT 完全摒弃了局部卷积操作,转而依赖自注意力机制对图像全局上下文进行建模。

2025-11-25 11:20:12 1518

原创 Zig-RiR(Zigzag RWKV-in-RWKV)代码跑通学习记录

论文以及全文翻译我已上传资源,下面是我的跑通代码的流程,以浪潮人工智能平台为例。

2025-11-23 11:24:12 706

原创 nnUNet(v1)框架的代码讲解

nnunet v1框架讲解

2025-11-07 11:05:41 990

原创 医学图像分割评价指标Dice与HD95的详解

豪斯多夫距离(Hausdorff Distance, HD)衡量两个点集之间的最大边界偏差。但在医学图像中,由于噪声或标注误差,最大距离容易受离群点影响,因此常用 95% 分位数的 HD(HD95)作为更鲁棒的替代。

2025-11-05 18:58:41 1143

原创 nnUNet(v1)框架使用全过程讲解

nnUNet作为医学图像分割的框架去使用十分的方便,所以可以简单地学习了解一下它的代码。这里只讲部分重要代码以及使用。注:介绍的是nnunetv1版本,因为作者的条件限制,目前只能使用v1版本,虽然比较古老且代码条理不够清晰,但也够用,还请见谅。 关于nnunet的介绍以及简单使用可以看博主的这两个文章:https://blog.youkuaiyun.com/qq_73038863/article/details/152608999?fromshare=blogdetail&sharetype=blogd

2025-11-04 09:36:07 1222

原创 nnUNet框架使用教程

我所学习的文章中提到创建一个名为Task01_BrainTumour的文件夹(解释:这个Task01_BrainTumour是nnUNet的作者参加的一个十项全能竞赛的子任务名,也是我要实践的分割任务,类似的还有Task02_Heart,就是分割心脏的。(4)进入上面第二个文件夹nnUNet_raw,创建nnUNet_cropped_data文件夹和nnUNet_raw_data文件夹,右边存放原始数据,左边存放crop以后的数据。(6)将下载好的公开数据集或者自己的数据集放在上面创建好的任务文件夹下。

2025-10-29 17:20:07 789

原创 ACDC数据集介绍

ACDC(Automatic Cardiac Diagnosis Challenge)数据集是2017年MICCAI会议期间发布的一个公开心脏MRI数据集,旨在推动自动心脏结构分割与疾病诊断算法的发展。该数据集包含100例真实临床患者的心脏电影磁共振成像(cine MRI),涵盖五类心脏状况:正常对照、扩张型心肌病、肥厚型心肌病、心肌梗死后和右心室异常。

2025-10-23 18:02:17 481

原创 VMNET介绍

VMNet(Voxel-Mesh Network)是一种用于 3D 语义分割 的深度学习架构,首次发表于 ICCV 2021。其核心目标是兼顾3D场景的语义信息与几何细节,通过融合体素(Voxel)和网格(Mesh)两种表示形式,实现更精确的分割效果。VMNet 的创新在于首次将体素域和网格域统一在一个端到端可训练的框架中,并设计了跨域注意力机制进行信息交互。优势:结构规则,易于使用3D卷积处理,语义上下文建模能力强。缺陷:体素化会丢失几何细节,尤其在物体边界和细小结构上表现不佳。

2025-10-22 08:45:11 1146

原创 UNTER++模型简介

UNTER++ 是一种基于深度学习的自然语言处理(NLP)模型,专注于文本生成、摘要和对话系统任务。其核心架构结合了Transformer的变体,通过多任务学习优化生成质量与效率。

2025-10-21 20:02:58 261

原创 nnformer模型讲解

nnFormer(nnU-Net-based Transformer)是一种将 Transformer 架构与 nnU-Net 框架相结合的医学图像分割模型。它在继承 nnU-Net 自动化、鲁棒性强等优点的基础上,引入了 Transformer 的全局建模能力,以克服传统 CNN(如 U-Net)在长距离依赖建模方面的局限性。

2025-10-21 18:05:25 641

原创 UNETR模型讲解

UNETR(UNEt TRansformer)是一种基于Transformer架构的医学图像分割模型,结合了U-Net的编码器-解码器结构和Transformer的全局建模能力。它通过替换U-Net的卷积编码器为纯Transformer模块,直接从3D图像块序列中提取多尺度特征,同时保留U-Net的解码器进行渐进式上采样和定位。🟢 绿色立方体:3D 转置卷积,上采样 ×2🔵 蓝色立方体:完整上采样+融合单元🟡 黄色立方体:普通卷积层🔵+🟢 组合表示一个“上采样 + 卷积融合”模块🔵(带 c)

2025-10-21 13:02:12 1336

原创 Zig-RiR(Zigzag RWKV-in-RWKV)模型讲解

Zig-RiR(Zigzag RWKV-in-RWKV)是一种专为高效医学图像分割设计的新型神经网络架构,由 Chen 等人在 2025 年提出。它基于 RWKV(Receptance Weighted Key Value) 模型——一种具有线性计算复杂度、能高效建模长序列的类 Transformer 架构——并针对医学图像的特性进行了关键性改进。注:关于RWKV的讲解请看博主的这篇文章:https://blog.youkuaiyun.com/qq_73038863/article/details/153137485

2025-10-13 21:46:49 1125

原创 TNT(Transformer in Transformer)讲解

TNT(Transformer in Transformer)是一种改进的视觉Transformer架构,通过嵌套的Transformer结构增强模型对局部和全局特征的建模能力。其核心思想是在全局Transformer块中嵌入局部Transformer块,形成层次化特征提取机制,提升图像分类、目标检测等任务的性能。嵌套Transformer结构:外层Transformer:处理图像块(Patches)之间的全局关系,类似传统ViT(Vision Transformer)。

2025-10-13 11:57:55 832 2

原创 RWKV架构讲解

RWKV(Receptance Weighted Key-Value)是一种结合了RNN(循环神经网络)和Transformer架构优势的模型。其核心设计通过替代传统Transformer的二次复杂度注意力,显著降低计算资源消耗,同时保持长序列建模能力。RWKV支持并行训练与高效推理,适用于资源受限场景下的长文本处理任务。

2025-10-12 22:49:06 1121

原创 Swin-Unet讲解

因为最终目标通道是 C/2 = 192,而每个新位置有 4 个子 token,所以总维度 = 4 × 192 = 768。

2025-10-10 12:14:27 1548

原创 AtentionUnet介绍

AttentionUnet 是一种基于经典 U-Net 架构改进的医学图像分割模型,通过引入注意力机制(Attention Gate, AG)来增强模型对目标区域的聚焦能力,抑制无关背景信息的干扰。其主要改进集中在跳跃连接(Skip Connection)部分,通过注意力门控动态调整特征图的权重,提升分割精度。

2025-10-10 11:30:01 503

原创 医学影像分割常用数据集

BTCV = “Beyond the Cranial Vault” – 2015 MICCAI 多图谱腹部标记挑战赛官方命名。Synapse = 数据托管平台(Sage Bionetworks),社区常把 BTCV 称为 “Synapse 数据集”。BTCV(Beyond the Cranial Vault)即 Synapse 腹部多器官 CT 分割数据集,由 Vanderbilt 门脉期 30 例增强 CT 组成,官方固定 18 训练 / 12 测试,提供 8 (

2025-10-08 21:44:05 1543

原创 nnU-Net介绍

nnU-Net 是德国癌症研究中心推出的“自调参”医学分割框架:它沿用经典 U-Net 结构,却能根据任意 CT/MR 数据自动算出网络形态、预处理、训练与后处理超参,零代码即可复现甚至超越论文 SOTA,被业内视为“无脑出 baseline 的神器”。 nnU-Net 的“网络骨架”仍然是 U-Net(encoder-decoder + skip-connection),但它并不是原样复制经典 U-Net,而是在结构、训练、推理全流程做了大量自动化微调。

2025-10-06 19:51:30 1357

原创 剪枝的概念,与Dropout的区别

剪枝是一种模型压缩技术,通过移除神经网络中冗余或不重要的连接、神经元或整个层,减少模型大小和计算量。其核心思想是识别并删除对模型性能影响较小的参数,同时尽量保持模型精度。

2025-09-29 20:15:08 896 4

原创 TransUnet的讲解

TransUnet是一种结合了Transformer和U-Net结构的混合网络架构,旨在解决医学图像分割任务中的长距离依赖问题。传统U-Net在局部特征提取上表现优异,但是在全局上下文建模方面存在局限。TransUnet 通过将 Transformer 引入 U-Net 的编码器部分,使得模型既能保留 CNN 的局部特征提取能力,又能利用 Transformer 的全局建模能力,从而提升分割精度,它能够更好地处理图像中的小目标和复杂结构,减少了对大量标注数据的依赖。

2025-09-26 20:01:38 973

原创 Transformer的讲解

Transformer是一种基于自注意力机制(Self-Attention)的深度学习模型,最初由Vaswani等人于2017年提出。其核心优势在于并行化处理能力和对长距离依赖关系的有效建模,广泛应用于自然语言处理(NLP)、计算机视觉(CV)和多模态任务。Transformer的整体架构:左侧为 Encoder block,右侧为 Decoder block。

2025-09-26 11:26:17 1155

原创 GroupNorm(组归一化)

GroupNorm(Group Normalization)是一种用于深度学习的归一化技术,旨在解BatchNorm(BN)在 batch size 较小时性能急剧下降的问题,同时能很好地替代 InstanceNorm(IN)和 LayerNorm(LN)。GroupNorm将通道分成若干组,对每组内的特征进行归一化,不依赖批量大小,适用于小批量或无法使用批量归一化的场景。

2025-09-25 18:32:19 750

原创 Unet网络DRIVE数据集实战

DRIVE数据集的全称为(用于血管提取的数字视网膜图像)。该数据集是视网膜图像分析领域的基准数据集,主要用于视网膜血管分割算法的开发和评估。包含40张彩色眼底照片(其中20张用于训练,20张用于测试),每张图像均配有专家手动标注的血管分割结果和视盘掩模。

2025-09-24 21:43:25 1374

原创 BCE(二元交叉熵)与Dice

二元交叉熵(Binary Cross-Entropy, BCE)是深度学习中用于二分类任务的损失函数,衡量模型预测概率与真实标签之间的差异。适用于输出为概率值(如Sigmoid激活后的结果)的场景,例如图像分类中的正/负样本判断。PyTorch提供了BCELoss和BCEWithLogitsLoss两种实现方式。(1)语义分割二分类:血管、视网膜、皮肤病变、道路、缺陷检测等几乎默认先上 BCE(+Dice)。

2025-09-23 21:15:58 1030

原创 数据集的查找与下载

开源项目 - 飞桨AI Studio星河社区 - 人工智能学习与实训社区。天池大数据众智平台-阿里云天池。1.Kaggle(需要翻墙)

2025-09-23 15:59:24 334

原创 Unet网络讲解(易理解版)

Unet是一种对称的编码器-解码器结构,最初由Olaf Ronneberger等人于2015年提出,因为其网络结构像“U”型,故称为Unet,主要用于生物医学图像分割。其核心特点是跳跃连接(Skip Connection),通过将编码器的高分辨率特征与解码器的上采样特征融合,解决了传统卷积神经网络在图像分割中丢失空间信息的问题。编码器其实是逐步的下采样过程,解码器是逐步的上采样过程。

2025-09-23 11:42:56 2511 1

原创 上采样(Upsampling)与下采样( Downsampling)讲解

通常作为轻量级替代方案或与其他方法结合使用。(3)用 3×3 核做普通卷积(步长=1):9×9 经 3×3 卷积 ⇒ 7×7,但 PyTorch 又在最右/最下再补 output_padding=1,最终得到 8×8。二者的卷积核大小都是一样的(滑窗的实际大小是一样的),但空洞卷积的滑窗(kernel)元素之间是存在一些间隙的,这些间隙在空洞卷积中成为膨胀因子。(1)先把输入每个像素周围补零(stride−1 行/列零):4×4 变成 7×7(因为 stride=2,相邻像素间插 1 行 1 列零)。

2025-09-18 12:39:06 1366

原创 BN(Batch Normalization)层的作用

轻微噪声引入:BN在计算均值和方差时,基于mini-batch的统计量会引入轻微噪声,这种噪声类似于Dropout的随机性,起到一定正则化作用。缓解梯度消失/爆炸:BN通过归一化输入,使得激活值的分布更加稳定,有助于缓解深层网络中的梯度消失或爆炸问题,从而提升训练稳定性。避免过度依赖:随着网络加深,BN的归一化效果有助于避免对某些特征的过度依赖,类似于Dropout防止共适应的作用,但更高效。平滑优化景观:BN使得损失函数景观更加平滑,允许使用更大学习率,加速训练,减少对Dropout稳定训练过程的需求。

2025-09-17 20:07:40 1728

原创 Dropout层作用以及使用时机

其核心思想是在每次训练迭代中,以预设的概率随机“丢弃”神经网络中的部分神经元(让这些神经元的激活值以一定的概率p停止工作)。这种随机失活的机制能够打破神经元之间的复杂共适应性,降低模型对特定神经元或神经元组合的依赖,从而提升模型的泛化能力。(2)把输入x通过修改后的网络前向传播,然后把得到的损失结果通过修改的网络反向传播。(1)在前向传播阶段,根据定义的丢失率随机选取隐藏层中的神经元进行“删除”,输入输出神经元保持不变。:通过随机屏蔽神经元,迫使网络学习更鲁棒的特征,避免对训练数据的过度依赖。

2025-09-17 17:41:27 331

原创 python入门—如何打开jupyter notebook并运行第一个程序

浏览器会自动打开Jupyter界面,新建的Notebook将默认使用该环境的Python内核。进入jupyter notebook,点击new,新建文件,编写代码后点击运行。任务栏搜索并打开Anaconda Prompt,输入以下命令创建新环境(将。替换为自定义环境名,

2025-09-16 21:35:44 283

原创 MNIST手写体识别学习记录

对于负输入,输出为零。该项目使用包含60,000张训练图像和10,000张测试图像的MNIST数据集,每张图像为28×28像素的灰度手写数字(0-9)。本人在学习时对于Dropout的时机问题进行了思考,其在Linear与RELU激活函数之间,如果Dropout放在ReLU之后,被ReLU置0的神经元已经“死亡”,Dropout再屏蔽它们就没意义了。对于其使用的时机,一般情况下是线性之后,下一层之前,来添加非线性特性,Conv2d →。:6个5×5卷积核,步长为1,输出28×28×6的特征图。

2025-09-15 09:59:00 958 1

Mamba的论文资源pdf

Mamba的论文资源pdf

2025-11-29

VM-UNET论文pdf

VM-UNET论文pdf

2025-11-26

Zig-RiR(Zigzag RWKV-in-RWKV)论文

Zig-RiR(Zigzag RWKV-in-RWKV)论文

2025-11-23

Zig-RiR(Zigzag RWKV-in-RWKV)论文

Zig-RiR(Zigzag RWKV-in-RWKV)论文

2025-11-23

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除