理想不闪火
研究开放环境下的深度学习算法、生成模型推理加速和医学图像。
欢迎订阅专栏!
展开
-
IPMI 2023:Test Time Adaptation 的医学图像分割解决
CoTTAEcoTTADIGA对 TTA 不了解的同学可以先看上面这几篇新工作。基于深度学习的医学成像解决方案的一个主要问题是,当一个模型在不同于其训练的数据分布上进行测试时,性能下降。将源模型适应于测试时的目标数据分布是解决数据移位问题的一种有效的解决方案。以前的方法通过使用熵最小化或正则化等技术将模型适应于目标分布来解决这个问题。在这些方法中,模型仍然通过使用完整测试数据分布的无监督损失反向传播更新。原创 2023-09-06 21:28:31 · 1497 阅读 · 0 评论 -
CVPR 2023 中的领域适应:用于切片方向连续的无监督跨模态医学图像分割
我们已经介绍过 3 篇 CVPR 中的典型领域适应工作,他们三篇都是 TTA(Test-Time Adaptation)的 settings,而这次要介绍的文章是 UDA(Unsupervised domain adaptation)的 setting。CoTTAEcoTTADIGA在这篇文章中,提出了 SDC-UDA,一种简单而有效的用于连续切片方向的跨模态医学图像分割的体积型 UDA 框架,它结合了切片内和切片间自注意力图像转换、不确定性约束的伪标签优化和体积型自训练。原创 2023-09-06 21:28:10 · 1559 阅读 · 0 评论 -
CVPR 2023 中的领域适应: 通过自蒸馏正则化实现内存高效的 CoTTA
在上一篇文章中,我们介绍了CoTTA方法,这次介绍的是基于它的优化工作:EcoTTA,被接受在 CVPR 2023 上。上一篇文章我们提到 CoTTA 的输入是随时间轴变化的数据(比如自动驾驶中不断切换的天气条件),且是测试伴随训练任务。所以,CoTTA 通常在内存有限的边缘设备上进行,因此减少内存消耗至关重要。先前的 TTA 研究忽略了减少内存消耗的重要性。此外,上一篇文章也提到了长期适应通常会导致灾难性的遗忘和错误积累,从而阻碍在现实世界部署中应用 TTA。原创 2023-07-04 16:12:55 · 722 阅读 · 0 评论 -
CVPR 2023 中的领域适应: 一种免反向传播的 TTA 语义分割方法
Continual Test-Time 的领域适应CVPR 2023 中的领域适应: 通过自蒸馏正则化实现内存高效的 CoTTA推荐对领域适应不了解的同学先阅读前置文章。目前的 TTA 方法针对反向传播的方式可以大致划分为:之前介绍过的 CoTTA 可以属于 Fully Backward,EcoTTA 划分为 Partial Backward 中的 Meta Network 类别,这次要介绍的方法属于 Backward-Free 中的 BN-Based 和 Prototype-Based 的混合。原创 2023-07-02 10:43:52 · 710 阅读 · 0 评论 -
零基础实战迁移学习VGG16解决图像分类问题
个人简介:李响Superb,优快云百万访问量博主,普普通通男大学生,目前在读软件工程,计算机视觉、深度学习和医学图像处理专攻,偶尔也搞迁移学习和全栈开发。博客地址:lixiang.blog.youkuaiyun.com文章目录1 前言2 Transfer Learning3 How to transfer?4 代码实战:基于迁移学习对猫狗图片进行辨识5 参考1 前言本文涉及到的代码均已开源,读者可自行下载学习,实践大于理论!什么是迁移学习?简单的理解就是使用一些已经训练好的模型迁移到类似的新的问题进行使用,原创 2022-02-16 18:11:58 · 1527 阅读 · 0 评论 -
【迁移学习(Transfer L)全面指南】不需要时关闭autograd的方法:torch.no_grad
从训练循环中,你注意到只能在train_loss上调用backward。因此,误差只会根据训练集来进行反向传播。验证集用于在未用于训练的数据上对模型输出的准确性进行独立的评估。好奇的读者此时可能会有一个问题。我们对模型进行了两次评估(一次在train_t_u上,一次在val_t_u上),然后调用一次backward。这不会使autograd变得混乱吗?验证集评估过程中生成的值不会影响backward吗?幸运的是,事实并非如此。训练循环中的第一行在train_t_u上对模型进行评估以产生train_t_p原创 2021-10-27 20:52:29 · 424 阅读 · 0 评论 -
【迁移学习(Transfer L)全面指南】Pytorch处理体积数据
学习了如何加载和表示2D图像,比如使用相机拍摄的图像。在诸如涉及CT(Computed Tomography)扫描等医学成像应用程序的情况下,通常需要处理从头到脚方向堆叠的图像序列,每个序列对应于整个身体的横截面。在CT扫描中,强度代表身体不同部位的密度:肺、脂肪、水、肌肉、骨骼,以密度递增的顺序排列,当在临床工作站上显示CT扫描时,会从暗到亮映射。根据穿过人体后到达检测器的X射线量计算每个点的密度,并使用一些复杂的数学运算将原始传感器数据反卷积(deconvolve)为完整体积数据。CT具有单个的强度通原创 2021-10-27 19:43:06 · 360 阅读 · 0 评论 -
【迁移学习(Transfer L)全面指南】方差、协方差和Pearson相关系数的关系
方差用于反应数据的离散程度,期望用于反应数据的聚合情况。协方差用于反映两个维度之间的数据偏离期望值的相关性,若同时偏离,即为正相关,数据上现象为:(某维度偏离点-均值)*(另一维度-均值)>0,同时也能反映偏离强度,若协方差结果越大,则说明同时偏离程度大,相关性越强。协方差描述的是两个变量间的相关性,而Pearson相关性系数是为了比较不同变量与另外同一变量间相关性的相对大小,这里要注意的是:Pearson相关性系数衡量的是定距变量间的线性关系,可以用Pearson相关系数来进行特征特..原创 2021-10-27 10:33:57 · 721 阅读 · 0 评论 -
【迁移学习(Transfer L)全面指南】基于迁移学习完成图像分类任务(Pytorch)
文章目录1 任务2 场景3 代码实现3.1 导入第三方库3.2 加载数据3.3 训练3.4 微调卷积网络4 ConvNet 作为固定特征提取器1 任务如何使用迁移学习训练用于图像分类的卷积神经网络?数据集下载链接:https://download.pytorch.org/tutorial/hymenoptera_data.zip2 场景微调 Convnet:我们使用预训练网络初始化网络,而不是随机初始化,就像在imagenet 1000 数据集上训练的网络一样。其余的训练看起来像往常一样。Con原创 2021-10-26 16:26:13 · 591 阅读 · 0 评论 -
【迁移学习(Transfer L)全面指南】元学习
文章目录1 什么是元学习?2 与迁移学习3 元学习的基本问题可以分成三大类4 总结1 什么是元学习?元学习即Meta-Learnig,它希望模型获取一种“学会学习”的能力,使其可以在获取已有“知识”的基础上快速学习新的任务,它的意图在于通过少量的训练实例设计能够快速学习新技能或适应新环境的模型。一个通俗易懂的区分:与机器学习机器学习和元学习实际上目的都是找一个Function,只是两个Function的功能不同,要做的事情不一样。机器学习中的Function直接作用于特征和标签,去寻找特征与标签之间原创 2021-10-25 18:43:44 · 724 阅读 · 0 评论 -
【迁移学习(Transfer L)全面指南】迁移学习中的bottlenecks(瓶颈层)
在学习How to Retrain an Image Classifier for New Categories的时候,在retrain刚开始的时候会建立一堆的bottlenecks文件,所以这到底是用来干什么的呢?首先,迁移学习只是训练神经网络的最后一层,也就是给出最后结果的softmax层。那我们该如何训练呢?也很简单,每次拿一部分图片喂给神经网络,经过层层网络提取特征后将一个特征向量传递给最后一层,然后最后一层给出分类结果。上面的方法看起来没什么问题,实际上也没啥问题,就是有点慢。因为我们每次都要原创 2021-10-25 11:55:41 · 700 阅读 · 0 评论 -
【迁移学习(Transfer L)全面指南】Deep CORAL几何特征变换
论文名称:Deep CORAL: Correlation Alignment for Deep Domain Adaptation论文地址:https://arxiv.org/pdf/1607.01719.pdf文章目录1 概述2 论文的CORAL loss3 CORAL loss代码1 概述解决的问题深度神经网络可以在大规模的标注数据中学校到特征,但是输入数据分布不同的时候泛化不是很好。因此提出了domain adaptation来弥补性能。本文针对target domain没有标注数据情况原创 2021-10-25 09:54:01 · 1964 阅读 · 0 评论 -
【迁移学习(Transfer L)全面指南】CVPR(2020)元学习、小样本、领域自适应、领域泛化和迁移学习概述
文章目录1 元学习2 小样本3 领域自适应3.1 基于差异的方法3.2 基于对抗的方法3.3 基于重构的方法4 领域泛化5 迁移学习1 元学习元学习,meta-learning,又叫learning to learn,直译即为学习如何学习,从中文字面上来理解,似乎这类算法更接近人类的学习方式——触类旁通,举一反三。而传统的深度学习方法虽然功力强大,但是框架无外乎都是从头开始学习(训练),即learning from scratch,对算力和时间都是更大的消耗和考验。元学习的诞生促使机器学习向另一侧面突进原创 2021-10-19 10:22:58 · 1561 阅读 · 0 评论 -
【迁移学习(Transfer L)全面指南】2021年迁移学习发展现状及案例探究
文章目录1 迁移学习简介2 样本权重迁移法3 特征变换迁移法4 迁移学习最新进展5 迁移学习在图像处理领域的应用1 迁移学习简介迁移学习(Transfer Learning)是机器学习中的一个名词,是指一种学习对另一种学习的影响,或习得的经验对完成其他活动的影响。迁移广泛存在于各种知识、技能与社会规范的学习中。迁移学习专注于存储已有问题的解决模型,并将其利用在其他不同但相关问题上。比如说,用来辨识汽车的知识(或者是模型)也可以被用来提升识别卡车的能力。计算机领域的迁移学习和心理学常常提到的学习迁移在概原创 2021-10-10 10:59:24 · 1825 阅读 · 0 评论 -
【迁移学习(Transfer L)全面指南】零次学习(Zero-Shot Learning)入门
文章目录1 零次学习(zero-shot learning)基本概念2 目前的研究方式3 数据集介绍4 推荐阅读的论文5 Source Data 有标签,Target Data 没有标签6 扩充6.1 Source Data没有标签 Target Data 有标签6.2 Source Data 与Target Data 都没有标签1 零次学习(zero-shot learning)基本概念假设小暗(纯粹因为不想用小明)和爸爸,到了动物园,看到了马,然后爸爸告诉他,这就是马;之后,又看到了老虎,告诉他:“原创 2021-10-06 16:23:41 · 945 阅读 · 0 评论 -
【迁移学习(Transfer L)全面指南】Domain-Adversarial Training:基于对抗的迁移学习方法
文章目录1 前言2 迁移学习概述3 背景简介4 域对抗迁移网络 (DANN)5 损失函数5.1 标签预测器的损失5.2 域判别器损失5.3 总损失6 Experiments Result:MNIST → MNIST-M参考1 前言论文地址:https://www.jmlr.org/papers/volume17/15-239/15-239.pdf本次介绍的论文是对抗迁移学习领域中一篇很经典的论文,论文作者Yaroslav Ganin [1] 等人首次将对抗的思想引入迁移学习领域当中。2 迁移学习概原创 2021-10-06 11:18:22 · 1564 阅读 · 0 评论