Transfer Learning 文章解析

部署运行你感兴趣的模型镜像

transfer learning: 包含所有的source  or target, labeled or unlabeled, finetune, multi-task learning的情况。总而言之一句话,训练的过程中用单个数据集做supervised learning之外的所有情况都算在transfer learning中。

supervised learning: 训练数据都有标签(单数据集)

unsupervised learning: 训练数据无标签(单数据集)

semi supervised learning: 训练数据一部分有标签,一部分没有标签(单数据集)

doman adaptation: 多数据集,target没有label,source有label(多数据集)

weakly supervised learning: 有标注错误,或者标注不全,或者需要做分割任务只有检测的标签等(单数据集)

 

更多的解释参见下图:

An Overview of Different Settings of Transfer

 

博文论文中出现的setting总结:

Setting1: universal semi-supervised semantic segmentation。 target和source都一部分有label,一部分没有label。

Setting2: cross-category semi-supervised semantic segmentation, in-category semi-supervised semantic segementation。

Setting3: partial domain adaptation, source和target都有标签,source标签比target多。

Setting4: Beyond domain adaptation, source domain 有image & label,target domain 训练时看不到,只有test可以看到。

 

以下文章以Segmentation为主

部分文章也有在做classification和detection任务

1. Weakly- and Semi-Supervised Panoptic Segmentation(ECCV, 2018):

Setting: weakly- and semi-supervised semantic and instance segmentation。weakly: 使用检测框和类别标签,训练得到图像分割结果。semi: 加入一部分human-annotations(可以理解为:human class的分割标签)

Method: 单数据集,结合semantic seg和detector的结果加入instance seg的网络中,可以得到instance seg的结果。

根据检测框和物体标签得到结果的方法:训练multi-class网络,不同的分支取conv层的channel,根据检测框框出物体标签所在位置,根据该特定位置的heatmap得到粗略的预测分割结果。

Contribution:第一次提出使用weakly supervised non-overlapping instance segmentation。第一次在weakly supervise任务中同时进行semantic and  instance segmentation。第一次在cityscapes执行weakly- and semi- supervised任务。

Backbone: psp+resnet101

Datasets: cityscapes, pascal voc.(coco辅助)

 

2. Penalizing Top Performers: Conservative Loss for Semantic Segmentation Adaptation(ECCV, 2018):

Setting: unsupervised domain adaptation。

Method: 提出了一种新的loss: conservative loss。防止模型学得太差,判别性不足,也不要学得太好,陷入source domain的over fitting。中间部分尽量小,两端尽量大。概率靠近1的给比较低的loss,防止学得比较好。概率靠近0的,说明这部分需要增加训练,给高loss,让其多修改weight。

Contribution:新的loss

Backbone: FCN(vgg16)

Datasets: cityscapes, gtav, synthia

 

3. Domain Transfer Through Deep Activation Matching(ECCV, 2018):

Setting: unsupervised domain adaptation。

Method: 在网络中间加很多gan, gan的loss是根据jsd(Jensen-Shannon divergence)计算的。

Contribution:新的loss

Backbone: classification: le-net. segmentation: erf-net

Datasets: classification: mnist, usps, svhn. segmentation: cityscapes, gtav, synthia

 

4. Partial Adversarial Domain Adaptation(ECCV, 2018):(这篇工作的后续工作--Partial transfer learning with selective adversarial networks.)

Setting: partial domain adaptation, source和target都有标签,source标签比target多。

Method: 将adversarial learning用到partial domain adaptation中。

Contribution:将adversarial learning用到partial domain adaptation中。

Backbone: --(pada)

Datasets: office-31, office-home, imagenet-caltech, visda2017

 

4. Conditional Adversarial Domain Adaptation(NIPS, 2018):

Setting: domain adaptation. 单任务,多数据集。 target没有label,source有label。

Method: 网络中间提取的特征和预测的类别相乘的结果做对抗学习。

Contribution:同method

Backbone: alexnet, resnet-50

Datasets: office-31, imageclef-da, office-home

 

5. Adversarial Multiple Source Domain Adaptation(NIPS, 2018):

Setting: domain adaptation. 单任务,多数据集。 target没有label,source有label。

Method: supervised训练有标签的数据,多个discriminator区分各个source domain和target domain。

Contribution:同method

Backbone: --

Datasets: mnist, mnist-m, svhn, synthdigits

 

6. Importance Wegihted Adversarial Nets for Partial Domain Adaptation(CVPR, 2018):

Setting: partial domain adaptation, source和target都有标签,source标签比target多。

Method: 加权discriminator(使用第一个d计算权重,第二个d来反传修改系数)。

Contribution:计算权重的discriminator

Backbone: resnet18

Datasets: office+caltech-10 object datasets, office-31 dataset, caltech-256

 

7. Object Region Mining with Adversarial Erasing: A Simple Classification to Semantic Segmentation Approach(CVPR, 2017):

Setting: unsupervised semantic segmentation。有分类标签,训练得到分割结果。

Method: 对物体分类,物体不同区域对分类的贡献不同,会有热图,去掉响应高的部分(其实是用图片均值代替),继续训练,得到热图,然后如此迭代,得到多个网络,有多个热图,拼起来可以粗略分出物体。

Contribution:classification --> segmentation. psl:擦除方法

Backbone: deeplab(vgg16)

Datasets: pascal voc 2012

 

8. Universal Semi-Supervised Semantic Segmentation(arxiv, 2018):

Setting: universal semi-supervised semantic segmentation。 target和source都一部分有label,一部分没有label。

Method: 一共两个数据集,每个数据集。每个数据集有label的数据用supervised learning方法训练,没有label的数据用unsupervised learning的方法训练。unsupervised learning根据相似度算loss。

Contribution:新的setting,unsupervised learning根据相似度算loss

Backbone: resnet18

Datasets: cityscapes, camvid, id, sun rgb-d

 

9. Transferable Semi-supervised Semantic Segmentation(arxiv, 2018):

Setting: cross-category semi-supervised semantic segmentation, in-category semi-supervised semantic segementation。

Method: l-net: 结合分类标签和分割标签训练得到prediction。p-net: adversarial learning

Contribution:l-net and p-net???

Backbone: DeepLab(vgg16) - L-net. CAM(vgg16) - classification net. 6-3*3 conv layer + 3 fully connected layers - P-net.

Datasets: PASCAL VOC 2012.

 

10. Virtual-to-Real: Leaning to Control in Visual Semantic Segmentation(IJCAI, 2018):

并不能看懂,好像和robot有关?可能和我们关系不大。。先记录一下恩。。

Network: A3C(对比DR-A3C, ResNet-A3C)

Datasets: ADE20K

 

11. Label Efficient Learning of Transferable Representations across Domains and Tasks(NIPS 2017):

Setting: labeled source data and unlabeled or sparsely labeled data in the target domain.

Method: 1 supervised loss(source domain & target domain labeled data)+2 GAN loss(source domain feature & target domain feature)+3 Entropy Loss(source feature & unlabeled target feature; labeled target feature & unlabeled target feature )

Contribution:loss3

Backbone: fcn8s+vgg16, drn-26

Datasets: SVHN, MNIST; Image net , ucf-101

 

12. Beyond Domain Adaptation: Unseen Domain Encapsulation via Universal Non-volume Preserving Models(arxiv, 2018):

Setting: source domain 有image & label,target domain 训练时看不到,只有test可以看到。

Method: 假设各个domain都是高斯分布,不过它们的均值和方差不同,通过改变均值和方差,生成不同的domain的数据加入训练过程。

Contribution:同method

Backbone: conv-pool-conv-pool-fc-fc-softmax, real nvp

Datasets: mnist, usps, svhn and mnist-m; yale-b, cmu-pie, cmu-mpie

 

~~~~~~~~~不定期更新~~~~~~~~~

 

ICLR 2018 100 papers: http://search.iclr2018.smerity.com

CVPR 2018 paper list: http://openaccess.thecvf.com/CVPR2018.py

ECCV 2018 paper list: http://openaccess.thecvf.com/content_ECCV_2018/html/

NIPS 2018 paper list: http://papers.nips.cc

 

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.15

TensorFlow-v2.15

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

<think>好的,我现在需要帮用户确定他们提供的引用示例属于哪种引用格式。用户给出的例子是: GAO Y , LI K , MOSALAM K M ,et al. Deep Residual Net with Transfer Learning for Image-based Structural Damage Recognition Deep Residual Network with Transfer Learning[C]//11th National Conference on Earthquake Engineering.2018. 首先,我要分析这个引用的各个部分,看看它符合APA还是MLA,或者其他格式。根据之前用户提供的对比信息,APA和MLA在作者名、日期位置、标题格式等方面有不同。 首先看作者名。例子中的作者名是姓在前,后面跟首字母缩写,比如“GAO Y”和“LI K”。APA格式要求姓在前,首字母缩写,而MLA要求全名。例如,APA会是Gao, Y.,而MLA会是Gao, Yang。所以这里符合APA的作者格式。 接下来是日期位置。在APA中,日期紧接在作者后面的括号里,而MLA放在来源末尾。例子中的日期2018出现在会议名称之后,没有括号,这看起来更接近MLA的日期位置,但需要确认会议名称后的日期是否符合APA的格式。通常APA的引用结构是作者(年份),然后是标题,接着是来源,所以日期应该在作者后面用括号括起来,但这里没有括号,直接放在会议名称后面,这可能需要进一步考虑。 然后是标题格式。APA要求标题仅首字母大写,并且斜体,而MLA使用主要单词首字母大写,并用引号。例子中的标题是每个单词首字母大写,并且没有斜体或引号,这不太符合APA或MLA的标准。可能这个例子没有严格遵循格式,或者有其他因素。 来源部分,APA需要明确标注会议名称和论文集的详细信息,可能包括出版社和DOI等。例子中的来源标注为“11th National Conference on Earthquake Engineering.2018”,没有更多细节,这可能属于会议论文集的引用,APA通常会用斜体会议名称,并标明地点和出版社,但这里可能简化了。 另外,用户提到的引用中有[C]//,这可能表示会议论文,属于中国常用的GB/T 7714格式的特征,比如使用[C]表示会议文献,//后面是会议名称。而APA或MLA通常不使用这种标注方式。例如,GB/T 7714格式的引用会包括作者、文章标题[C]//会议名称,出版地:出版社,出版年份:页码。 综合来看,这个引用更符合中国国家标准GB/T 7714的格式,而不是APA或MLA。用户之前的问题可能混淆了不同格式,但根据结构中的[C]//和作者缩写方式,应判断为GB/T 7714。需要向用户确认这一点,并解释各个部分的构成是否符合该标准,同时指出与APA/MLA的不同之处。</think>您提供的引用示例属于**中国国家标准GB/T 7714**格式(国内学术论文常用),而非APA或MLA格式。以下是具体分析: --- ### **1. 格式特征解析** - **作者格式**: `GAO Y , LI K , MOSALAM K M ,et al.` - **姓全大写+名缩写**(如GAO Y = 高Y),符合GB/T 7714对中文作者的处理习惯(外文作者也保留此格式)。 - **“et al.”表示多人合著**(APA需6人以上用et al.,MLA需3人以上,但此处直接采用缩写)。 - **标题与来源标注**: `Deep Residual Net... [C]//11th National Conference on Earthquake Engineering.2018.` - **方括号[C]**:标明文献类型为会议论文(Conference)。 - **双斜杠“//”**:分隔论文标题和会议信息,是GB/T 7714的标志性符号。 - **无斜体/引号**:标题直接使用正体,无特殊格式(APA要求斜体,MLA用引号)。 - **年份位置**: `2018`直接放在会议名称后,未用括号包裹(APA要求括号内日期紧跟作者,MLA要求完整日期)。 --- ### **2. 对比APA/MLA格式** | **特征** | 您的示例(GB/T 7714) | APA格式 | MLA格式 | |----------------|-----------------------------------|----------------------------------------|----------------------------------------| | **作者名** | 姓全大写+名缩写(GAO Y) | 姓+首字母缩写(Gao, Y.) | 姓+全名(Gao, Yang) | | **文献类型** | [C]标注会议论文 | 无需标注类型,直接写会议名称 | 无需标注类型,直接写会议名称 | | **标题格式** | 正体,首字母大写 | 斜体,仅首字母大写 | 引号内,主要单词首字母大写 | | **日期位置** | 会议名称后(2018) | 作者后括号内(2018) | 来源末尾(27 May 2018) | | **标点符号** | 逗号+方括号+双斜杠 | 句号分隔各部分 | 逗号分隔大部分信息 | --- ### **3. 规范的GB/T 7714格式示例** 若严格遵循国家标准,您的引用可调整为: ```text GAO Y, LI K, MOSALAM K M, et al. Deep residual net with transfer learning for image-based structural damage recognition[C]// Proceedings of the 11th National Conference on Earthquake Engineering. Los Angeles, USA: Earthquake Engineering Research Institute, 2018: 1-10. ``` - **补充细节**:会议地点、主办方、页码(若已知)。 - **标题修正**:仅首字母大写,其余小写(英文标题一般实词首字母大写)。 --- ### **4. 使用建议** - **国内学术场景**(如中文期刊、学位论文):优先使用GB/T 7714。 - **国际投稿**:根据期刊要求选择APA/MLA(需按目标格式调整作者名、日期位置等)。 - **通用原则**:始终以**目标出版物/机构的官方指南**为准。 如果需要转换为APA或MLA格式,可进一步说明! 📚
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值