自动编码器与生成对抗网络:无监督学习与生成式学习
1. 神经网络架构的未来趋势
在深度学习领域,很难准确预测明年哪种架构会占据主导地位。目前,Transformer 架构显然是主流,但未来可能会是卷积神经网络(CNNs),例如 2018 年 Maha Elbayad 等人的论文中,研究人员将掩码二维卷积层用于序列到序列任务。甚至循环神经网络(RNNs)也有可能卷土重来,像 2018 年 Shuai Li 等人的论文表明,通过使给定 RNN 层中的神经元相互独立,可以训练出能够学习更长序列的更深层 RNN。
2. 练习题
2.1 练习题列表
以下是一些相关的练习题:
1. 使用有状态 RNN 与无状态 RNN 的优缺点分别是什么?
2. 为什么人们在自动翻译中使用编码器 - 解码器 RNN,而不是普通的序列到序列 RNN?
3. 如何处理可变长度的输入序列?可变长度的输出序列又该如何处理?
4. 什么是束搜索,为什么要使用它?可以使用什么工具来实现它?
5. 什么是注意力机制,它有什么帮助?
6. Transformer 架构中最重要的层是什么,其目的是什么?
7. 什么时候需要使用采样 softmax?
8. 选择一个特定的嵌入式 Reber 语法,训练一个 RNN 来识别字符串是否符合该语法。首先需要编写一个函数,生成一个包含约 50% 符合语法的字符串和 50% 不符合语法的字符串的训练批次。
9. 训练一个编码器 - 解码器模型,将日期字符串从一种格式转换为另一种格式,例如从 “April 22, 2019” 转换为 “2019 - 04 - 22”。
10. 完
超级会员免费看
订阅专栏 解锁全文


被折叠的 条评论
为什么被折叠?



