life long learning概述 学习笔记

终生学习旨在让模型在不断学习新任务的同时保持对旧任务的记忆,避免灾难性遗忘。文章介绍了弹性权重巩固(EWC)、生成数据以模拟多任务学习、增量分类和表示学习等方法,以及前进转移、后退转移等评价指标。此外,还探讨了模型自动扩展的技术,如进步神经网络和专家门等。未来的研究方向包括课程学习和任务之间的关系探索。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Life long learning:训练同一个大脑,学不同的任务(对比多任务学习,没有足够的地方存储过去的数据)

 

三个要点:

  1. knowledge retention记住学习的知识,not intransigence不能固执不改变。

机器先学a在学b就会忘记a,但是同时学a和b就能都记得不错,称之为catastrophic forgetting

  1. knowledge transfer
  2. model expansion,but parameter efficiency

 

 

第一条:解决思路

elastic weight consolidation(EWC):保留过去任务中重要的参数不变

使用保卫参数记录每个参数的重要程度,并且把保卫参数和参数变化量的乘积加进loss函数

求loss对参数的二阶导数来计算保卫参数

经典变式:synaptic intelligence;memory aware synapses(不需要数据标签)

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值