在读一些自监督学习算法的时候,遇到了pretext tasks这个术语,所以对这个术语的含义做了下了解。
pretext tasks 通常被翻译作“前置任务”或“代理任务”, 有时也用“surrogate task”代替。
pretext task 通常是指这样一类任务,该任务不是目标任务,但是通过执行该任务可以有助于模型更好的执行目标任务。
其本质可以是一种迁移学习:让网络先在其他任务上训练,使模型学到一定的语义知识,再用模型执行目标任务。这里提到的其他任务就是pretext task。
参考:
前置任务(Pretext Tasks)在自监督学习中扮演关键角色,它们不是最终目标但能帮助模型获取语义知识。通过解决预设的代理任务,模型能在目标任务上表现出更好。这种策略本质上是一种迁移学习,先在其他任务上训练模型,然后应用到主要任务上。预训练的模型可以捕获到有用的信息,提升最终任务的性能。
865

被折叠的 条评论
为什么被折叠?



