多模态分割医学数据集小调研

文章介绍了QaTa-COV19数据集,包含大量COVID-19胸部X光片和对应的感染区域分割掩码,用于研究和早期识别。文章还提到了LViT和AriadnesThread等模型对该数据集的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 QaTa-COV19 

V1: 该数据集由4603张COVID-19胸部x光片组成;该数据集首次包含了用于COVID-19感染区域分割任务的真值分割掩码。加上对照组的胸部x光片,QaTa-COV19由120,968张图像组成。图像位于“QaTa-COV19/ images /”文件夹下,ground-truth分割蒙版位于“QaTa-COV19/Ground-truths/”文件夹下。在4603张图像中,其中2951张具有相应的ground-truth分割掩码,其格式为mask_FILENAME.png。

V2:    Qatar - cov19数据集扩展,该数据集由9258张COVID-19胸部x射线组成,其中包括用于COVID-19感染区域分割任务的ground-truth分割掩码。图像具有相应的真值分割掩码,可以在mask_FILENAME.png中找到。(目前LViT和Ariadne’s Thread都是拿这个训练的,其中LViT的一个创新点就是为这个数据集添加了文字批注,Ariadne’s Thread的一个创新点就是人为修正了LViT的批注的一些错误)

Early-QaTa-COV19:该数据集是QaTa-COV19数据集的一个子集,该数据集由1065张胸部x光片组成,其中包括无或有限症状的COVID-19肺炎病例,用于早期发现COVID-19。

Control_Group: 控制组的胸部x光片可以在Control_Group/文件夹下找到。在这个文件夹中有两个控制组。对照组i仅包括12,544张正常(健康)胸部x光片。另一方面,对照组ii包括116,365张正常胸部x线片和14张不同胸部疾病图像。在Control Group II中,CHESTXRAY-14文件夹包括CHESTXRAY-14数据集的训练集和测试集。除此之外,小儿患者的细菌性和病毒性肺炎也可以在这个文件夹中找到。

文本+图像

我直接随机抽取几个图片,mask和几个描述

covid_1.png

Bilateral pulmonary infection, two infected areas, all left lung and middle lower right lung.

双侧肺部感染,两处感染区,均为左肺和右肺中下。

 covid_1043.png

Unilateral pulmonary infection, one infected area, middle left lung.

单侧肺部感染,一个感染区,左肺中部。

 

covid_1238.png

Unilateral pulmonary infection, one infected area, lower right lung.

单侧肺部感染,一个感染区域,右下肺。

 mask_covid_1423.png

Bilateral pulmonary infection, two infected areas, all left lung and all right lung.

双侧肺部感染,两个感染区域,左肺和右肺都感染了。

再来点纯文本描述↓

双侧肺部感染,两个感染区域,全部在左肺和中下部右肺。
双侧肺部感染,两个感染区域,全部在左肺和全部在右肺。
双侧肺部感染,两个感染区域,下部左肺和上部中下部右肺。
单侧肺部感染,一个感染区域,下部右肺。
双侧肺部感染,两个感染区域,下部左肺和中下部右肺。
单侧肺部感染,一个感染区域,下部左肺。
双侧肺部感染,三个感染区域,全部在左肺和上部中下部右肺。
单侧肺部感染,一个感染区域,中部右肺。
单侧肺部感染,一个感染区域,中下部左肺。
双侧肺部感染,三个感染区域,上部中下部左肺和全部在右肺。
双侧肺部感染,两个感染区域,中下部左肺和下部右肺。
双侧肺部感染,两个感染区域,下部左肺和下部右肺。
双侧肺部感染,三个感染区域,上部中下部左肺和上部中下部右肺。
双侧肺部感染,两个感染区域,上部中下部左肺和下部右肺。
双侧肺部感染,四个感染区域,上部中下部左肺和上部下部右肺。
单侧肺部感染,一个感染区域,中部左肺。

然后在看文本标签的时候发现其实里面大部分都是重复的,虽然七千多条数据但是只有三百多种标注,gpt总结一下它们的特征大概是↓

它们都涉及肺部感染,描述了感染的部位和区域,包括单侧感染和双侧感染,感染区域的位置(上、中、下)以及左右肺叶的涉及。这些描述中包含了不同的感染情况和位置组合。


关于语言描述这块:

模型在给出包含更详细位置信息的文本提示符时获得了更好的分割性能。

同时,当使用两种类型的文本提示时,即Stage3单独和Stage1 + Stage2 + Stage3性能几乎相同。这意味着文本提示中最详细的位置信息对提高分割性能起着最重要的作用。但这并不意味着文本提示符中其他粒度的位置信息对分割性能的改善没有贡献。即使输入文本提示只包含最粗略的位置信息(Stage1 +)在表3中的Stage2项中,我们提出的方法比没有文本提示的方法获得的Dice分数高1.43%
 

tips

(1)值得一提的是,多模态训练方法对数据量要求不算高 

SIIM-ACR

SIIM-ACR Pneumothorax Segmentation | Kaggle

呃呃,这个数据集寄了

COVID Rural

Chest Imaging with Clinical and Genomic Correlates Representing a Rural COVID-19 Positive Population (COVID-19-AR) 事实上,文献表明,关于农村人口COVID-19结局的数据非常有限,而已经确定的是,这些人群的关键合并症的表达差异很大。我们发表了一组COVID-19检测呈阳性患者的放射学和CT成像研究。每位患者都有一组有限的临床相关数据,包括人口统计学、合并症、选定的实验室数据和关键的放射学发现。这些数据与从同一种群的临床分离株中提取的SARS-COV-2 cDNA序列数据交联,并上传到Genbank存储库。我们相信这个集合将有助于定义适当的相关数据,并从这个通常代表性不足的人群中为全球研究界提供样本。

这个数据集在文章LoVT中使用过,因为下载太麻烦所以我摆烂不找图片了,反正跟文本描述关系也不是很大

文本

然后这是它的文本描述:

 第一行从左到右描述依次是:

病人ID 年龄 性别 种族 邮编 最新BMI 最新体重 最新身高 结核病 系统性红斑狼疮 类风湿性关节炎 广泛烧伤 脾切除术 脾功能减低 麻疹 巨细胞病毒感染 水痘 带状疱疹 营养不良 目前怀孕 慢性肾脏疾病 糖尿病类型I 糖尿病类型II 器官移植 透析前诊断 透析后诊断 癌症 COVID检测阳性 检测名称 ICU入院 ICU入院次数 死亡率

我寻思这种数据收集得挺不容易的,所以真要创新我还是优先考虑第一种

继续是脑部的调研↓这里是纯图像无文本的

汇总

CADA

该数据集显示对比度增强的脑血管树和一个或多个动脉瘤种子点。此外,分割掩码以NIFTI (.nii.gz)掩码图像和STL (. STL)几何文件两种形式提供,并被视为ground truth。

格式:MRI

Brain US

Brain US Dataset | Papers With Code

这个大脑解剖分割数据集有1300个2D美国扫描用于训练,329个用于测试。在2010年至2016年期间接受治疗的20名不同的受试者(年龄为1岁)共获得1629张体内b型US图像。该数据集包含有IVH和没有IVH的受试者(健康受试者,但有发生IVH的风险)。美国扫描是使用飞利浦美国机器与C8-5宽带弯曲阵列换能器收集的,使用冠状和矢状扫描平面。对于每个收集到的图像,由专家超声仪手动分割心室和膈膜。我们将这些图像随机分成1300张训练图像和329张测试图像进行实验。请注意,这些图像的大小为512 × 512。

best:88.840

格式:DICOM

BRaTS

格式:MRI

BRaTS 2021 Task 1 Dataset | Kaggle

2021

BRaTS 2021 Task 1 Dataset | Kaggle

BraTS2021脑肿瘤分割实战_宁远x的博客-优快云博客

BraTS 2021脑肿瘤分割数据集介绍_brats 数据集_黄渡猿的博客-优快云博客

2019

BRATS 2019 Benchmark (Brain Tumor Segmentation) | Papers With Code

acc:0.817

BRATS 2018 Benchmark (Brain Tumor Segmentation) | Papers With Code

acc:0.870

BraTS每个病例包含四个模态的磁共振成像(Magnetic Resonance Imaging,MRI),每个模态的维度为240×240×155(L×W×H)

四种模态:

T1

T1成像,利于观察解剖结构,病灶显示不够清晰

T1ce

在受试者做磁共振之前向血液内注射造影剂,使成像中血流活跃的区域更加明显,是增强肿瘤的重要判据

T2

T2成像,病灶显示较为清晰,判断整颗肿瘤

FLAIR

T2压水像(抑制脑脊液的高信号),含水量大则更亮眼,可以判断瘤周水肿区域

ATLAS

转存失败重新上传取消Examples of segmentation results on ATLAS dataset. The rows show the... |  Download Scientific Diagram

2.0

Home - Grand Challenge

dice:0.610 ± 0.260 

该挑战的目标是经验评估MR图像中病变分割的自动化方法。参与者的任务是自动生成T1w MR图像的病灶分割蒙版。

ISLES

都刷到96了,没必要

BrainPTM

Brainptm-2021 - Grand Challenge

 白质束的准确定位是神经外科手术计划和导航成功的关键

MRI

mean dice score 0.7249

Instance

Home - Grand Challenge

我们从10名经验丰富的放射科医生那里收集了200个带有精细标签的3D volume,100个用于训练数据集,70个用于封闭测试数据集,30个用于开放的验证数据集。采用DSC、HD、RVD作为分割的评价指标。这一挑战也将促进颅内出血治疗、研究者之间的互动和跨学科的交流。

 

DSC、HD、RVD:0.7953 ± 0.1718

看到这里感觉最合适的数据集是X光的,然后其实MRI也不错,不过之前没人做过倒是可能会有数据对齐的问题,这里确实可以琢磨琢磨。图片多模态的暂时就先不考虑了(?)

BONBID-HIE2023

Data - Grand Challenge

今年才开始的新任务,新比赛

缺氧缺血性脑病的波士顿新生儿脑损伤数据集

脑MRI中与hie相关的脑异常通常是弥漫性的(即多灶性),并且很小(超过一半的患者病变占脑体积的<1%)。HIE MRI数据的分割与其他分割任务(如具有大病灶和局灶性病变的脑肿瘤)明显不同,并且可以说比其他分割任务更具挑战性。例如,到目前为止,与U-Net和其他最先进的关于这种疾病的出版物的Dice重叠率保持在0.5左右,而脑肿瘤的Dice重叠率超过0.8。为实现准确的早期预后和医疗诊断,这是一项迫切但尚未得到满足的需求

数据集内容:
1ADC_ss:颅骨剥离表观扩散系数(ADC)图。
2Z_ADC: ZADC映射。
3LABEL:专家病变注释。

0.6115 ± 0.2567

好了又查了一圈脑部确实没有X光的数据集,现在要去看MRI怎么和文本对齐了。否则就Brain US的超声图像。

现在MRI面对的问题是现有CVPR2023的唯二的两篇3d多模态都是基于点云的,有点盲区了。但是个人认为还是能通过非点云方式解决的,主要是参考它数据对齐的方式

然后超声的那个应该是小孩子在子宫里的大脑,没有一个相对固定的位置,所以很难定位。

 

<think>好的,用户现在的问题是,他的论文题目是“基于深度学习的脑肿瘤图像分割方法及实现”,但他是零基础,想知道如何完成这个论文。首先,我需要回顾之前的对话历史,看看之前用户的情况是怎样的。 之前用户提到过,他目前只有初步想法,用PyTorch搭建U-Net模型,写了开题报告和文献综述,但还没有实际展开,实验结果也没出来。当时我给出的是一个分步骤的回答建议,帮助他在复试时如何回答导师的问题,突出研究思路、技术路线和后续规划。现在用户的问题更基础,是零基础如何完成这个论文,所以需要从头开始指导。 首先,用户现在是零基础,可能对深度学习医学图像分割、U-Net模型等都不太了解。所以需要制定一个从基础到进阶的学习路径,帮助他逐步掌握所需的知识和技能。同时,论文的完成需要系统的步骤,包括文献调研、数据准备、模型构建、实验设计、结果分析等,这些都需要一步步来。 接下来,我需要考虑用户可能的深层需求。虽然用户直接问的是如何完成论文,但作为零基础的学生,他可能还缺乏方向感和具体步骤,甚至可能对如何开始学习编程和深度学习感到迷茫。因此,回答需要不仅提供步骤,还要给予学习资源推荐、时间规划建议,以及鼓励和建立信心。 我需要将整个完成论文的过程分解为几个阶段,每个阶段有明确的目标和任务。比如第一阶段是学习基础,第二阶段是文献调研,第三阶段是数据准备,第四阶段是模型搭建,第五阶段是实验与优化,第六阶段是论文写作。每个阶段下再细分具体的学习内容和任务。 同时,用户可能需要知道每个阶段需要多长时间,如何分配时间,以及遇到困难时该如何解决。比如在学习阶段,推荐一些在线课程或书籍,帮助他快速入门Python和PyTorch。在数据准备阶段,指导如何获取公开数据集,如何处理医学图像等。 另外,用户可能会担心自己零基础是否能够完成这样的论文,所以在回答中需要强调逐步推进的重要性,避免一开始就追求复杂的模型,而是从复现经典模型开始,逐步改进。同时,提供一些实际操作的例子,比如使用Brats数据集,使用U-Net作为基线模型,这些都能帮助用户具体化任务。 还需要提醒用户注意时间管理,合理分配每个阶段的时间,避免在某个环节卡住。同时,建议用户记录实验过程和结果,方便后续论文写作时的回溯和分析。 最后,要确保回答结构清晰,步骤明确,让用户能够按部就班地进行,同时给予信心,说明只要按计划学习,零基础也能完成论文。此外,可以补充一些常见问题的解决方法,比如遇到代码错误如何解决,如何查找文献等,增加实用性。</think>以下是针对零基础完成“基于深度学习的脑肿瘤图像分割论文”的系统指南,按步骤分解并附学习资源建议: --- ### **一、基础能力构建(1-2个月)** #### 1. 深度学习基础 - **必学内容**: - Python编程(推荐《Python编程:从入门到实践》) - PyTorch框架(官方教程:https://pytorch.org/tutorials/) - 卷积神经网络(CNN)原理(吴恩达深度学习课程第4周) - **实践任务**: - 用PyTorch实现MNIST手写数字分类(代码示例:https://github.com/pytorch/examples/tree/main/mnist) #### 2. 医学图像基础 - **必学内容**: - MRI成像原理(推荐《医学影像处理与分析》第2章) - 脑肿瘤解剖结构(Brats数据集官网说明:https://www.med.upenn.edu/cbica/brats2023) - **工具掌握**: - 医学图像查看工具:ITK-SNAP(官网教程) - 数据格式转换:NiBabel库(处理.nii.gz文件) --- ### **二、文献调研方法(2-3周)** #### 1. 论文检索策略 - **关键检索词**: ```python ("brain tumor segmentation") AND ("U-Net" OR "attention" OR "multimodal") AND ("MRI") AND ("deep learning") ``` - **核心期刊/会议**: - 顶会:MICCAI, ISBI, CVPR-MIA - 期刊:IEEE TMI, Medical Image Analysis #### 2. 文献管理工具 - 使用Zotero管理文献,建立分类标签: ``` |-- 基础方法 | |-- U-Net变体 | |-- 注意力机制 |-- 医学应用 |-- 多模态融合 |-- 小样本学习 ``` --- ### **三、数据准备阶段(1个月)** #### 1. 数据集获取 - **公开数据集**: - Brats 2023(含多模态MRI):https://www.synapse.org/brats2023 - TCGA-GBM(需申请):https://portal.gdc.cancer.gov/ - **预处理流程**: ```python # 示例代码框架 def preprocess(nii_path): img = nib.load(nii_path) # 加载nii文件 data = img.get_fdata() data = z_score_normalize(data) # 标准化 data = elastic_transform(data) # 弹性形变增强 return data ``` #### 2. 数据划分策略 - 采用5折交叉验证(避免小样本过拟合) - 病例级划分(同一患者的不同切片必须在同一fold) --- ### **四、模型实现路线(2-3个月)** #### 1. 基线模型搭建 - **U-Net复现步骤**: 1. 参考原论文架构图(https://arxiv.org/abs/1505.04597) 2. 使用PyTorch构建编码器-解码器结构 3. 添加跳跃连接(skip connection) - **代码框架**: ```python class UNet(nn.Module): def __init__(self): super().__init__() self.down1 = ConvBlock(4,64) # 输入通道=4(多模态) self.down2 = DownSample(64,128) # ... 中间层定义 self.up1 = UpSample(256,128) def forward(self, x): x1 = self.down1(x) x2 = self.down2(x1) # ... 下采样过程 return output ``` #### 2. 改进方案(选择1-2个方向) - **轻量化改进**: - 用深度可分离卷积替换常规卷积(减少参数量30%+) - 代码修改示例: ```python # 原卷积层 self.conv = nn.Conv2d(in_c, out_c, 3, padding=1) # 改进为 self.conv = nn.Sequential( nn.Conv2d(in_c, in_c, 3, groups=in_c, padding=1), # 深度卷积 nn.Conv2d(in_c, out_c, 1) # 逐点卷积 ) ``` - **性能提升改进**: - 在跳跃连接处添加注意力门控(AG-Net) - 参考代码:https://github.com/ozan-oktay/Attention-Gated-Networks --- ### **五、实验设计要点** #### 1. 评价指标选择 - **核心指标**: - Dice系数(肿瘤区域重叠度) - Hausdorff距离(边界贴合度) - 敏感度(小肿瘤检出率) - **计算示例**: ```python def dice_coeff(pred, target): intersection = (pred * target).sum() return (2. * intersection) / (pred.sum() + target.sum()) ``` #### 2. 对比实验设计 - **基线对比**: | 方法 | Dice(WT) | HD95(mm) | 参数量(M) | |-----------------|----------|----------|----------| | 经典U-Net | 0.78 | 8.2 | 31.0 | | 本文方法 | 0.83 | 6.1 | 28.5 | --- ### **六、论文写作规划** #### 1. 章节框架建议 ``` 第1章 引言(突出临床价值:脑肿瘤放疗靶区勾画需求) 第2章 相关工作(对比FCN、V-Net等方法的局限性) 第3章 方法(重点讲解改进模块的数学表达) 第4章 实验(消融实验+对比实验+临床医生评估) 第5章 结论(强调方法的泛化性:在XXX数据集上的迁移结果) ``` #### 2. 图表制作技巧 - 模型结构图:使用PowerPoint绘制(参考Nature期刊图示规范) - 结果可视化:用ITK-SNAP叠加预测结果与金标准 --- ### **七、时间管理建议** | 阶段 | 时间节点 | 交付物 | |--------------|------------|--------------------------| | 基础学习 | 第1-2个月 | MNIST分类代码 | | 文献综述 | 第3个月 | 研究现状对比表格 | | 模型开发 | 第4-6个月 | 消融实验数据 | | 论文撰写 | 第7-8个月 | 初稿+图表 | | 修改完善 | 第9-10个月 | 查重报告+实验补充 | --- ### **关键问题应对策略** 1. **代码报错**: - 优先查看PyTorch官方文档 - 在GitHub Issues中搜索同类问题(如:"size mismatch error U-Net") 2. **实验效果差**: - 检查数据预处理是否一致 - 尝试降低学习率(如从1e-3调整到1e-4) 3. **写作困难**: - 使用Overleaf模板(如:IEEE Access Latex模板) - 先完成图表再填充文字 --- 只要按照这个路线坚持推进,每天保持3小时有效学习时间,零基础完全可以在10-12个月内完成论文。建议在GitHub建立私有仓库管理代码,用Notion记录每日进展。遇到具体技术问题时可再深入讨论。
评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值