无监督学习
无监督学习不依赖任何标签值,通过对数据内在特征的挖掘,找到样本间的关系,比如聚类相关的任务
自监督学习
和无监督学习不同,自监督学习主要是利用辅助任务(pretext)从大规模的无监督数据中挖掘自身的监督信息,通过这种构造的监督信息对网络进行训练,从而可以学习到对下游任务有价值的表征。
换句话说:自监督学习的监督信息不是人工标注的,而是是通过辅助任务(pretext)在大规模无监督数据中自动构造监督信息,通过得到的标签,就可以类似有监督学习一样进行训练。
区别
自监督学习是从数据本身找标签来进行有监督学习。无监督学习没有标拟合标签的过程,而是从数据分布的角度来构造损失函数。自监督学习的代表是语言模型,无监督的代表是聚类。自监督不需要额外提供label,只需要从数据本身进行构造。
本文探讨了无监督学习,强调其通过挖掘数据内在特征进行聚类,与自监督学习的不同,后者借助预设任务从无标签数据中创造监督信号,用于训练网络。两者之间的区别和典型应用案例得以深入解析。
3812

被折叠的 条评论
为什么被折叠?



