SNR: Sub-Network Routing for Flexible Parameter Sharing in Multi-Task Learning

提出一种名为子网络路由(SNR)的新框架,旨在实现更灵活的参数共享,同时保持多任务神经网络模型的计算优势。该框架通过将共享的低级隐藏层模块化为多层子网络,并控制子网络与可学习的潜在变量之间的连接,实现了灵活的参数共享。实验结果显示,SNR方法在YouTube8M数据集上表现出色。

摘要

当任务相关性较低时,经典的多任务神经网络的准确性可能会显着下降。但手动调优的方法是不可扩展的,软参数共享模型要么不够灵活要么计算成本高。因此论文提出了一种称为子网络路由 (SNR) 的新框架,以实现更灵活的参数共享,同时保持经典多任务神经网络模型的计算优势。SNR 将共享的低级隐藏层模块化为多层子网络,并控制子网络与可学习的潜在变量的连接,以实现灵活的参数共享。

方法

子网模块化

将整个神经网络模型拆分成某种形式的子网络,允许不同的任务利用不同的子网络。提出了图1中的两种分子网及互相routing的方式,被称为SNR-Trans和SNR-Aver。
Alt

图1

首先,SNR会把shared bottom部分分割中上下两个子网络(sub-networks),两个子网络之间通过二进制编码变量(binary coding variable,取值非0即1)连接,SNR-Trans和SNR-Aver的不同,就体现在连接方式的不同。假设第一层子网络有三个,输出是u1,u2,u3u_1,u_2,u_3u1,u2,u3,第二层子网络有两个,输入是 v1,v2v_1,v_2v1,v2,SNR-Trans通过神经网络的矩阵运算转换连接两个子网络,SNR-Trans公式表达如下:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值