Generating wikipedia by summarizing long sequences笔记

Generating wikipedia by summarizing long sequences

we introduce a decoder-only architecture that can scalably attend to very long sequences

一、任务定义

我们将英文维基百科视为一个多文档摘要的监督机器学习任务

  • input :维基百科主题(文章标题)、非维基百科参考文档集合组成
  • output:维基百科文章文本

二、相关工作

input output

作者的最大,说明作者可以输入很多句子,生成很多的句子

所以输入长的短的语料都行, 说明适应性最好?

ROUGE-1 recall score

评价的是重复性??

有的摘要是wiki-clone,即从输入里面直接复制句子。

作者的不是这样,是有转述的。

三、语料库

来源有2:

  • 维基百科文章引用的那些链接。
  • 使用文章部分标题作为查询,从谷歌搜索引擎抓取搜索结果。对于每个查询,我们收集10个结果页面。

四、方法与模型

第一阶段 EXTRACTIVE STAGE

我们首先使用提取摘要粗选输入的一个子集

第二阶段 ABSTRACTIVE STAGE

包括训练一个生成维基百科文本的抽象模型,同时对这种提取进行条件设置。

这个过程是受人类写摘要时的动作的启发

因为人类的总结方式就是:先把重点内容划线,再根据自己的规则总结

模型

LSTM+Attention

Decoder:Transformer+多层attention机制(LMLML)

五、实验结果

在生成维基百科引语的实验中,我们主要从四个方面进行改变:

1.提取方法:SumBasic, TextRank, tf-idf, identity, cheating extractor

2.输入语料库:引文、搜索结果、组合

3.抽象模型输入长度,L:我们尝试100到11000之间的值

4.抽象模型架构:seq2seq-att, T-ED, T-D, T-DMCA

结果:

  • 一般用tf-idf提取
  • 组合的语料最好
  • seq2seq-attention作为基准在这个任务上比Transformer架构做得很差
  • L增大,T-ED结构的性能一直在提高,直到L = 500 - 1000的最佳值,而在L = 2000时无法学习。
  • 会出现自动翻译现象

比较:模板的方式

ROUGE-1应该模板会表现的更好,因为模板不会在input里面出现,摘要的话,只需要从input里面选一些词填入模板形成output,所以output不会与input重合很多,而本文的方法会从input里面挑成段的文本来摘,所以会重复。

疑惑

EXTRACTIVE STAGE的cheating方案是什么

作者是如何与2009年的那篇论文比较的,感觉有点含糊

输入的特殊字符是如何处理的(Figure 4 举的例子里有&符号)

答:embedding

为啥作者16GB的 GPU设备可以训练L = 11000这么大的模型

答:这个设备淘宝4w,应该还挺厉害的

Transformer以及几种attention机制

答:有说法是,Transformer是可以完全替代RNN的

### 生成平滑姿态序列的方法 为了实现多样的人类动作预测,生成平滑的姿态序列是一个重要的研究方向。通过对抗学习方法可以有效地从单幅图像中的2D姿态估计出3D姿态[^1]。然而,在实际应用中,连续的动作预测不仅依赖于静态姿态的准确性,还需要考虑时间上的连贯性和自然流畅度。 #### 使用循环神经网络(RNN) 一种常用的技术是采用循环神经网络(Recurrent Neural Networks, RNN),特别是长短期记忆网络(LSTM)或门控循环单元(GRU)。这些模型能够捕捉时间序列数据中的长期依赖关系,从而有助于生成更加真实和平滑的人类运动轨迹。对于每一个时刻t的状态ht,LSTM会基于前一状态h(t−1)以及当前输入xt来更新自身的隐藏层激活值: ```python import torch.nn as nn class LSTMModel(nn.Module): def __init__(input_size, hidden_size, num_layers, output_size): super(LSTMModel, self).__init__() self.lstm = nn.LSTM(input_size=input_size, hidden_size=hidden_size, num_layers=num_layers, batch_first=True) self.fc = nn.Linear(hidden_size, output_size) def forward(x): out, _ = lstm(x) out = fc(out[:, -1, :]) return out ``` 这种方法允许系统理解过去的信息并据此做出合理的未来预测,进而提高整个动作序列的一致性与合理性[^2]。 #### 结合变分自编码器(VAEs) 另一种有效的方式是在框架内引入变分自编码器(Variational Autoencoders,Vaes),它可以在低维潜在空间里表示复杂的高维观测分布,并且通过对这个紧凑表征施加正则化约束使得重建后的样本具有更高的质量。VAEs还可以帮助解决由于训练集中某些特定模式过度拟合而导致泛化能力下降的问题。 当我们将Vae应用于人体姿态估计任务时,可以通过优化目标函数最小化重构误差的同时最大化证据下界(ELBO),即: \[ \text{minimize}~\mathbb{E}_{q(z|x)}[\log p_\theta(x|z)]-\beta KL[q(z|x)||p(z)] \] 其中\( q(z | x)\) 是近似后验概率; \(p_{\theta}(x | z)\) 表示解码过程;而最后一项则是用来控制先验分布\( p(z)\) 和近似后验之间的差异程度。\(\beta\) 参数用于调整两者之间的重要性权衡. 这种策略不仅可以促进更丰富的多样性表达而且还能确保所得到的结果具备良好的视觉效果和物理可行性. #### 应用混合专家(MoE)机制 最后值得一提的是利用Mixture-of-Experts (MoE)结构也可以显著改善最终输出的质量.MOE是一种集成学习技术,其核心思想在于根据不同情境下的需求动态选择最适合处理该情况子模块来进行计算.具体到本场景中就是说我们可以设计多个专门针对不同类型活动特征的小型网络作为expert成员,并通过gating function决定何时调用哪一个experts组合起来完成整体的任务执行流程. 这样做既保留了各个领域专精的优势又克服单一架构难以兼顾全面性的局限,因此非常适合用来构建高质量且多样化的视频级或多帧级别上的人体行为模拟平台.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值