自编码网络的一个高级版本:
加入了雅可比矩阵限制,即在隐藏层输出上添加了隐层输出h对输入x的雅可比矩阵的二范约束。
论文:
Contractive Auto-Encoders: Explicit Invariance During Feature Extraction
论文地址:http://www.icml-2011.org/papers/455_icmlpaper.pdf
RNN在deeplearning.net/tutorial上的地址:http://deeplearning.net/tutorial/rnnslu.html#rnnslu
RNN用在句子生成上,其中一个主要的步骤是word embeddings,其表示将一个单词
映射为一个向量,这样在比较单词相似性时,只需比较对应的单词向量的欧氏距离即可。
——————————————————————————————————————————
Theano中定义一个矩阵A,再定义一个矩阵B,当B作为矩阵A的参数(索引值)时,
这里针对A的索引是指对B中的每个元素,以这个元素为行值,取A中对应的行中所有元素。
因此最终取得的元素个数为

本文探讨了合同自编码器在特征提取中的应用,引入了雅可比矩阵约束来实现不变性。同时介绍了RNN在句子生成中的作用,特别是word embeddings如何表示单词并用于比较相似性。在Theano环境中,详细阐述了softmax函数的维度处理以及在RNN教程中如何处理扫描后的矩阵形状。训练前,通过随机初始化并作为共享参数的embedding矩阵,随着训练进行更新,预测时则从训练后的embedding矩阵中获取输入单词的表示。
最低0.47元/天 解锁文章
1221

被折叠的 条评论
为什么被折叠?



