
神经网络与深度学习
小沫_jie
这个作者很懒,什么都没留下…
展开
-
前馈神经网络与深度学习概述
转自:http://blog.youkuaiyun.com/liuyuemaicha/article/details/52335251 参考: 1、神经网络浅讲:从神经元到深度学习 - 推酷 2、【转】脉络清晰的BP神经网络讲解,赞 - 编程小翁 - 博客园 (function () {(fu转载 2017-07-14 09:38:06 · 498 阅读 · 0 评论 -
word2vec
转自:http://www.cnblogs.com/iloveai/p/word2vec.html 系列参考文献:http://www.cnblogs.com/Determined22/p/5804455.html http://blog.youkuaiyun.com/itplus/article/details/37969817 http://techblog.youdao.com/?p=915 http:/转载 2017-07-14 09:43:53 · 806 阅读 · 0 评论 -
使用预训练的word2vec词向量
http://blog.youkuaiyun.com/lics999/article/details/78696023Github: https://github.com/pkulics/use-pretrained-word2vec转载 2017-12-16 16:36:37 · 7252 阅读 · 0 评论 -
生成对抗网络
转载自:http://blog.youkuaiyun.com/on2way/article/details/72773771 之前 GAN网络是近两年深度学习领域的新秀,火的不行,本文旨在浅显理解传统GAN,分享学习心得。现有GAN网络大多数代码实现使用python、torch等语言,这里,后面用matlab搭建一个简单的GAN网...转载 2018-03-12 20:47:37 · 5698 阅读 · 1 评论 -
如何理解TensorFlow中的batch和minibatch
转载自:http://hp.stuhome.net/index.php/2016/09/20/tensorflow_batch_minibatch/ 在刚开始学习使用TF的过程中,我不是很理解什么是“batch”。也经常有人问,到底minibatch是干什么的? 然而这是一个在TF中,或者说很多DL的框架中很常见的词。 这个解释我觉得比较贴切也比较容易理解。引用如下: 深度学习的优化...转载 2018-03-12 20:53:09 · 1544 阅读 · 0 评论 -
softmax 交叉熵损失函数
转载自:http://blog.youkuaiyun.com/willduan1/article/details/73694826转载 2018-03-13 23:23:28 · 695 阅读 · 0 评论