论文阅读:Editable Neural Networks

本文提出了可编辑训练(Editable Training)的概念,旨在修正模型在特定错误上的表现,同时保持整体性能。通过编辑函数和梯度下降编辑器,实现了对模型参数的局部调整。实验结果显示,该方法在CIFAR-10分类任务和机器翻译任务中表现出良好的效果,具有较高的编辑效率和局部性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

ICLR2020,居然是俄罗斯的经济学学校。
文章关注的问题是,如何有效地纠正模型在特定错误上的表现,而不至于影响模型总体性能。本文称其为Editable Training,相当于是一个新问题。(感觉有点类似小样本增量学习?)


1.Introduction

大部分模型,对单个输入的预测要依赖所有的模型参数,做特定纠正很难不影响模型在其它输入上的性能表现。

现有方法是:1.重训练  2.人工缓存(lookup table之类的)
本文提出一种Editable Training的方法。


2.Related work

解释下Editable Neural Networks的idea和以下几个领域的关联:

  • meta-learning:ENN同属于此,“learn to allow effective patching”
  • 灾难性遗忘:与CL不同,排除了序列任务假设
  • 对抗训练:ENN可通过直接学习网络的脆弱样本解决这个问题

3.Editing Neural Networks

定义一下问题:

原模型 f(x,θ),参数θ由目标函数L_{base}(\theta)学习得到

编辑函数:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值