Prediction of Multidrug-Resistant TB from CT Pulmonary Images Based on Deep Learning Techniques论文总结

本文介绍了一种基于深度学习的肺结核(TB)类型分类方法,通过CT图像的块采样技术,实现了对Drug-Sensitive(DS)和Multi-Drug Resistant(MDR)类型的快速准确区分,准确率达到91.11%。
Prediction of Multidrug-Resistant TB from CT Pulmonary Images Based on Deep Learning Techniques

 

解决的问题:

TB(肺结核)疾病可分为drug-sensitive (DS)和multidrug-resistant (MDR) ,为了发现病人TB所属于的类型,传统的方法是进行复杂的微生物培养菌实验,将持续几个月的时间。因此如何快速,准确的确定TB的所属类型有着重要的意义。
通过CT图像来进行临床分析诊断,以对病人的TB类型进行划分。
 

贡献:

1.应用块采样的深度学习技术来进行TB的3D分类,方法新颖(patches instead of volume
2.所用方法成本低,速度快,并且有一个很高的准确率 91.11%
 
 

方法:

 
分别对图像进行patch, 然后人工的筛选带有病灶或包含肺部信息的patch,作为其类别的label,来进行分类实验。
Inpput: 64*64灰度图, 首先通过6层网络,每一层的网络设置如图所示。
filter size: 3 × 3× 96, 3 × 3 × 256, 3 × 3 × 512,  2 × 2 × 384, 2 × 2 × 1024,  3 × 3 × 4096
在最后的输出阶段,采用交叉熵损失将得分解释为每个类别的对数概率(未归一化), 之后采用支持向量机(SVM)进行类别划分或Softmax(后续分别做了相关实验),使用铰链损失来鼓励正确的类别得分比其他类别得分高。 每个样本的最终分数根据应用的阈值确定,所有补丁分数计算求和,得出其所属类别的分数。
 
 

实验:

230 trian(DS 134, MDR96) ; 214 test 
512*512 (55-263 slices)
a volume of 3D TB is downsampled from slices into patches.
 
 
 
 
Dense SIFT算法,是一种对输入图像进行分块处理,再对每一块进行SIFT运算的特征提取过程。SIFT 是一种检测局部特征的算法,通过求一幅图中的特征点及其有关scale 和 orientation 的描述子得到特征并进行图像特征点匹配,获得了良好效果)
### 基于深度学习的全球电离层TEC预测 #### 数据准备与预处理 为了实现有效的全球电离层总电子含量(Total Electron Content, TEC)预测,数据源的选择至关重要。通常使用的数据集包括来自国际GNSS服务(IGS)、欧洲定轨中心(CODE),以及其它地面监测站的数据[^1]。这些数据经过清洗、同步化处理后被用于训练模型。 对于输入特征的设计,除了时间戳之外,还可以考虑加入太阳活动指数(F10.7射线通量)、地磁扰动指标(Kp指数)等外部因素作为辅助变量来提高预测精度。此外,地理坐标也是重要的空间维度信息之一,在某些情况下可能还需要引入历史TEC值序列以捕捉时空关联性。 #### 深度学习架构设计 针对此类回归任务,常见的几种神经网络结构均能胜任: - **卷积神经网络 (CNN)**:适用于提取局部模式并推广到整个区域;尤其当存在大量高分辨率图像类资料时表现优异。 - **循环神经网络及其变体(LSTM/GRU)**:擅长处理长时间跨度的时间序列问题,能够记忆过去的状态从而更好地理解当前时刻的情况。 - **Transformer**:通过自注意力机制可以在不依赖递归的情况下建模远距离依赖关系,特别适合多站点联合预报场景下的复杂交互作用分析。 具体实践中往往会选择混合策略——比如先用 CNN 提取二维平面上的空间分布规律再接 LSTM 进行后续演算,或是直接构建端到端的大规模 Transformer 架构来进行全方位的学习。 ```python import torch from torch import nn class DeepIONet(nn.Module): def __init__(self): super(DeepIONet, self).__init__() # Example architecture combining CNN and LSTM layers self.cnn_layers = nn.Sequential( nn.Conv2d(in_channels=..., out_channels=..., kernel_size=(...)), ... ) self.lstm_layer = nn.LSTM(input_size=..., hidden_size=...) self.fc_out = nn.Linear(...) def forward(self, x): batch_size = x.size()[0] cnn_output = self.cnn_layers(x).view(batch_size,-1) lstm_output,(hn,cn)= self.lstm_layer(cnn_output.unsqueeze(dim=0)) final_output=self.fc_out(lstm_output[-1]) return final_output ``` #### 训练过程优化技巧 考虑到实际应用中的实时性和准确性需求,建议采取如下措施提升性能: - 使用分布式GPU集群加速大规模矩阵运算; - 应用迁移学习技术缩短收敛周期; - 实施早停法防止过拟合现象发生; - 定期更新权重初始化方案确保稳定启动。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值