
深度学习
Life will be better
这个作者很懒,什么都没留下…
展开
-
神经网络调参经验
以下链接内容为微信公众号 【 夕小瑶的卖萌屋】 的神经网络调参的一些tricks。step-by-step: 夕小瑶版神经网络调参指南(上) 别再喊我调参侠!夕小瑶“科学炼丹”手册了解一下 ...原创 2020-03-19 15:21:26 · 244 阅读 · 0 评论 -
HAN论文笔记
HAN(hierarchical attention network)是2016年提出的用于文档(document)分类的模型,该模型是一个多层注意力网络。由于文档是由句子(sentence)组成,句子是由词(word)组成,HAN先将句子分词后应用一层注意力机制得到句子的向量(sentence vector),然后再应用一层注意力机制得到文档的向量(document vector),最后使用全连...原创 2019-12-20 12:23:07 · 903 阅读 · 0 评论 -
textcnn论文笔记
最近在系统学习文本分类领域的论文,刚读完第一篇2014年Yoon Kim的文章textcnn,下面记录的是对textcnn的论文的一些重要部分的阅读笔记。论文链接:Convolutional Neural Networks for Sentence Classification1 文章的主要贡献(1)提出了用于文本分类的卷积神经网络textcnn(2)验证了使用预训练的词向量比使用随机初始...原创 2019-12-03 12:30:44 · 1063 阅读 · 0 评论 -
防止过拟合的方法
在深度学习中,过拟合是指模型对于训练集能达到非常高的精度,而对于测试集的精度较低的现象。防止过拟合常用的方法主要有以下几种:1.增加训练样本数量2.简化模型结构3.使用权重正则化4.使用dropout5.数据扩增6.使用批归一化下面将简要分析这几种方法能防止过拟合的原理。增加训练样本数量增加训练样本的数量是防止过拟合的最优选择。训练样本数据越多,模型学习到的泛化特征越多,训练得...原创 2018-12-21 17:26:09 · 2589 阅读 · 0 评论