一、解决【二】中遗留了四个问题。
下面进行解决:
Q1:至于为什么没有val的部分,还没时间研究
Q2:训练和测试的数据痛的同一组,这个容易解决
Q3:用MT-Unet训练我们的数据的尺寸问题:只能用244*244的图像,这个要仔细研究甚至修改网络架构,才能判断是否能够结果。
Q5: 训练出来的.nii.gz偏白色,猜测是像素值的区间出现了问题,应该可以通过归一化到[0,255]
Q1:个人感觉没必要了,test就相当于val了,作用都是来看dice,什么时间收敛,我们可以什么时间停止训练了。(这个问题,如果有其他的想法,欢迎评论区留言,交流学习一下)
Q2:训练和测试的数据痛的同一组。这次在训练腹部数据集时,把30组数据,分为20组训练和10组测试。在训练自己的冠脉数据集时,采用了49组训练集,16组测试集。
Q3:这个目前修改了两个地方,宏观暂时可以跑通,而且效果比用224的好得多。因为个人比较菜,远远达不到可以自主根据论文模型来使用代码一点点复现的地步,因此不确定微观上面是否存在影响。
Q5: 确实是像素值的区间出现了问题。问题的根源主要是在根据项目作者的提示,预处理拿到的Synapse 数据集时将像素利用clip调整到了[-125, 275]范围,并进行了下面的操作。
normalised_image_data = (image_data - args.clip[0]) / (args.clip[1] - args.clip[0])
因此,只要反向操作一波就好了