- 博客(5)
- 收藏
- 关注
原创 week7_初识卷积网络
模型 数据集:mnist 模型简介 两层卷积 2个全连接网络 探索的参数有: 激活函数 正则化 (正则化因子 ) 权重初始化 卷积(kernel的大小、个数,stride,3个参数) 池化(使用的Maxpool) batch epoch 实验过程总结 Maxpool的时候,发现源数据的维度必须是maxpool的维度的整数倍,在有stride的情况下,可能需要是maxpool+stride的维...
2018-12-01 16:59:56
176
原创 week6
初始化 初始化的时候不能用全0初始化权重矩阵W,不会收敛。 b的初始化可以用全0初始化or0.1初始化 权重初始化有 基于高斯分布(gaussian distribution)Xavier MSRA 调参 按顺序调参,并记录每次调参数据 学习率,指数衰减法:tf.train.exponential_decay,对应的链接:https://blog.youkuaiyun.com/u011012422/a...
2018-11-30 11:39:27
165
1
翻译 【论文阅读】The Ubuntu Dialogue Corpus
论文题目: The Ubuntu Dialogue Corpus: A Large Dataset for Research in Unstructured Multi-Turn Dialogue Systems 语料库: a. train.csv和论文所述一致。 1,000,000个例子,50%阳性(标签1)和50%阴性(标签0),训练数据。一共有3列数据。详细如下: Context...
2018-08-14 11:47:21
1504
转载 【chatbot实验】
英文论文 ~A Hierarchical Latent Variable Encoder-Decoder Model for Generating Dialogues. 备注:有数据 链接:https://github.com/julianser/hed-dlg-truncated 跑的结果:还未跑 ~End-To-End Generative Dialogue 链接:http...
2018-08-14 11:39:01
432
翻译 【论文阅读】Sequence to Sequence Learning with Neural Networks
看论文时查的知识点 前馈神经网络就是一层的节点只有前面一层作为输入,并输出到后面一层,自身之间、与其它层之间都没有联系,由于数据是一层层向前传播的,因此称为前馈网络。 BP网络是最常见的一种前馈网络,BP体现在运作机制上,数据输入后,一层层向前传播,然后计算损失函数,得到损失函数的残差,然后把残差向后一层层传播。 卷积神经网络是根据人的视觉特性,认为视觉都是从局部到全局认知的,因此不全部采用...
2018-08-05 20:18:45
1304
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅