神经网络中依赖于上下文的处理的连续学习

本文探讨了神经网络在连续学习和上下文依赖处理中的挑战,提出正交权重修改(OWM)方法解决遗忘问题。通过正交投影保持任务间的独立性,并介绍PFC-LIKE模块,模拟人脑根据不同任务改变输出的能力。实验在CASIA-HWDB1.1手写汉字和CelebA面部识别数据集上展示了有效性和应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Continuous Learning of Context-dependent Processing in Neural Networks

作者: Guanxiong Zeng, Yang Chen, Bo Cui and Shan Yu

5 Oct 2018

今天下午陈阳师兄来讲他最近的工作,感觉挺巧妙的,主要是解决两个问题,神经网络会遗忘和连续学习的问题。

Orthogonal Weights Modification (OWM)

一个神经网络先学习一个任务,训练完成后,再进行另外一个任务的训练,往往会将第一个任务遗忘。但人脑并不是这样,这个方法就是要解决这个问题。给两个任务先后学习,给两个任务的输入,希望神经网络的结果都是正确的。
我的理解是这个方法的原理是利用正交空间的思想,使得学习第二个任务时候不影响第一个任务的解:

y=W⋅xy=W\cdot xy=Wx

y=(W+ΔW)⋅xy=(W+\Delta W)\cdot xy=(W+ΔW)x

只要学习时更新权重的方向ΔW\Delta WΔW与原来的输入xxx都正交,就不会影响原来的解。由矩阵论的性质可知,正交投影矩阵

P=I−A(ATA+αI)−1ATP=I-A(A^TA+\alpha I)^{-1}A^TP=IA(ATA+αI)1AT
A=[x1,x2,...,xn]A=[x_1,x_2,...,x_n]A=[x1,x2,...,xn]

满足这个性质。即任意一个向量bbb,都可以分解成原来的输入空间AAA上的分量和与AAA正交的分量,先用最小二乘法求解输入空间AAA上的分量有

b=A⋅kb=A\cdot kb=Ak

AT=ATA⋅kA^T=A^TA\cdot kAT=A

评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值