- pointer network
- Recursive Structure
十九、Pointer Network(指针网络)
解一系列演算法:
给十个data point,用自动的方法找出一些点,连接起来可以把其余的点包进去。
一个neural network,它的input就是十个data point,每一个data point就用xy坐标表示,所以input就是10个二维的vector,丢到network里去,期待它的output为(4 2 7 6 5 3):

那这个pointer network怎么解呢?
input一排sequence,output另一个sequence,好像可以直接用sequence-to-sequence直接解:

结果是不work的。为什么?如果input sequence长短不一样的时候,由于encoder是一个RNN,encoder可以处理,但是decoder的长短无法改变。
解决:one can add attention。对attention做一下改造,让network可以动态地决定它输出的set有多大。
做法:用attention的model,把sequence读进来,但是要加一个特别的符号(x0y0)\begin{pmatrix}
x_0\\
y_0
\end{pmatrix}(x0y0),代表“END”这个值。采用attention-based model,产生一个key z0z^0z0,用这个key对input做attention,对每一个input产生一个attention weight,这个attention的weight就是output 的distribution,根据这个attention weight去取argmax,假设现在h1h^1h1的值最大,就是output 1,如下图所示:

如何training?
labeled data告诉我们,在第一个time state,output 1才是对的,就会希望在training的时候,得到由attention所构成的distribution它在h1h^1h1的值最大,其它值都趋近于0,然后去minimize cross-entropy。
好处:随着input sequence的变化,现在output的set也会跟着改变。
假设上图的output为1 ,现在就把(x1y1)\begin{pmatrix}
x_1\\
y_1
\end{pmatrix}(x1y1)丢进去,产生新的key z1z^1z1,再用z1z^1z1去做attention,根据这个attention得到distribution,再从这个distribution做argmax,由于h4h^4h4几率最大,所以output为4,然后再把(x4y4)\begin{pmatrix}
x_4\\
y_4
\end{pmatrix}(x4y4)丢进去,再产生新的key…知道“END”出现,即代表“END” 的(x0y0)\begin{pmatrix}
x_0\\
y_0
\end{pmatrix}(x0y0)的attention weight最大的时候,结束。

应用:
1、Summarization

2、Machine Translation

3、Chat-bot

二十、Recursive Structure(递归结构)
Application:Sentiment Analysis
做法:input一个word sequence,machine决定它的Sentiment是什么。这个word sequence就会被表示成一个vector sequence,可能用word embedding来表示每个word vector(或者1-of-N encoding),最后的output就是sentiment,假设把sentiment从正向到负向分为5个等级,那它就是一个5维的vector。

假设使用Recurrent Structure,就是input h0h^0h0,然后通过每一个function fff,output h1h^1h1,再把h1h^1h1和x2x^2x2丢到一模一样的function fff得到h2h^2h2…以此类推,最后等把整个sequence读完,就把最后一个output丢到另外一个function ggg里面,最后得到最终的output。

如果使用Recursive Structure:需要先决定input word中间有什么样的关系,它们的structure长什么样子,然后根据input的word得到output的sentiment的vector。现在假设structure已经决定好了,然后把x1x^1x1和x2x^2x2丢到function fff里面,fff得到h1h^1h1,接下来把x3x^3x3和x4x^4x4丢到function fff中,得到另一个output h2h^2h2(那几个input word算在一起要事先决定),再把h1h^1h1和h2h^2h2丢到function fff中得到h3h^3h3,最后把h3h^3h3丢给function ggg,得到最后的output。

为了让这些fff前后可以相接,需要让hhh和xxx的dimension是一样的,这样才能让这些fff堆叠起来。
1、Recursive Model
假设现在input句子是“not very good”,现在决定它是positive还是negative。
可以从句子得到它的syntactic structure(句法结构),假设文法结构是已知的:

今天apply Recursive Network,首先先把所有的word都用一个vector(word embedding)来表示,接下来拿出那个function fff,这个fff结合的顺序跟以上文法的结构是一样的,假设这些word vector的dimension都是∣z∣|z|∣z∣,那么network fff的input就是2×∣z∣2\times |z|2×∣z∣,output就是∣z∣|z|∣z∣:

当我们apply这个function fff时得到的output怎么解读呢?上图的output希望它代表“very good”的意思,这个fff可能不是一个简单的function,可能需要用到neural network,它的output不是简单的两个word vector的结合,而是它们的关系,比如:


所以我们需要一个network帮我们处理这个问题,fff要做到假设它看到“not”所代表的vector,它就要把另外一个输入的vector转向;比如看到“very”就是要把原来正面的东西变得更正面,把原来负面的东西变得更负面。
这个function fff怎么自动做到这件事情呢?透过training data自动学出来。

同时train function fff和ggg。
fff长什么样子呢?
最简单就是把以下两个vector串接在一起,乘上一个参数www,再通过一个激活函数,得到最后的output。

但是这样可能没办法得到特别好的结果,有一个问题是现在考虑a和b之间的interaction(相互作用),我们希望a的每个component和b的component之间要互相影响。所以可能需要设计更复杂的function—Recursive Neural Tensor Network(递归神经张量网络):
把刚才两个vector串接在一起的vector xxx乘上一个matrix www,再乘上xTx^TxT,得到的是一个标量,即∑i,jWi,jxixj\sum_{i,j}^{}W_{i,j}x_ix_j∑i,jWi,jxixj:

但是这样得到标量无法与后面的式子相加,于是把以上的式子再做一次:

以下是在文献上根据Recursive Neural Tensor Network所得到的结果:

在Recursive Neural Tensor Network之前有一个方法Matrix-Vector Recursive Network(矩阵向量递归网络),它的performance较差。

还有另外一个更复杂的方法叫做Tree LSTM:

本文是对blibli上李宏毅机器学习2020的总结,如有侵权会立马删除。
本文介绍了Pointer Network如何解决可变长度序列问题,特别是在序列到序列任务中的应用,如自动摘要和机器翻译。此外,还探讨了Recursive Structure在情感分析中的运用,包括Recursive Neural Tensor Network和Tree LSTM的原理及其优势。

被折叠的 条评论
为什么被折叠?



