机器学习
文章平均质量分 66
罗自荣
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
网上比较好的机器学习技术文章
极大似然法通俗易懂的介绍:http://blog.youkuaiyun.com/zouxy09/article/details/8537620思想是:已知某个参数能使这个样本出现的概率最大原创 2015-12-09 10:46:33 · 446 阅读 · 0 评论 -
TensorFlow中的一个重要ops---MatMul的实现(二)
上面一篇文章我们主要介绍了MatMul这个op的正向计算的实现,我们知道模型的最后一步是计算优化模型的参数,而一般采用的方法是梯度下降法,所以每个op节点不仅要实现一个正向的计算节点,还要实现一个方向的梯度计算节点。关于反向计算的结点官网有如下一段介绍:Implement the gradient in PythonGiven a graph of ops, TensorFlo原创 2017-04-10 20:22:35 · 5335 阅读 · 0 评论 -
TensorFlow中的一个重要op---MatMul的实现(一)
本文目的是以Tensorfl中的MatMul这个具有代表性又比较简单的ops为例介绍一下TensorFlow中的图的节点是怎么实现的。我个人认为TensorFlow中的ops是整个TensorFlow的核心,如果理解了这个,那么对TensorFlow就有了比较深的认识。在阅读这段代码前看一下官方文档中的添加新的op会很有帮助:中文翻译:http://www.tensorfly.cn/t原创 2017-04-09 00:00:18 · 16400 阅读 · 4 评论 -
基于docker安装spark
1.首先下载镜像并启动:docker pull sequenceiq/spark:1.5.1sudo docker run -it sequenceiq/spark:1.5.1 bash2.修改配置首先用ifconfig得到ip地址,我的ip是172.17.0.109,然后:bash-4.1# cd /usr/local/spark bash-4.1# cp conf/spark-原创 2017-04-26 15:11:20 · 2744 阅读 · 1 评论 -
神经网络中 BP 算法的原理与 PYTHON 实现源码解析
最近这段时间系统性的学习了 BP 算法后写下了这篇学习笔记,因为能力有限,若有明显错误,还请指正。什么是梯度下降和链式求导法则假设我们有一个函数 J(w),如下图所示。梯度下降示意图现在,我们要求当 w 等于什么的时候,J(w) 能够取到最小值。从图中我们知道最小值在初始位置的左边,也就意味着如果想要使 J(w) 最小,w的值需要减小。而转载 2017-06-08 10:27:12 · 2846 阅读 · 0 评论 -
TensorFlow word2vec_basic 代码分析
将字母向量化(即 word embedding)是NLP的基础,在TensorFlow中有一个简单的实现即word2vec(这篇文章主要关注他的基本实现,demo在这个目录下:tensorflow/examples/tutorials/word2vec/word2vec_basic.py)。关于word2vec的介绍非常多理论也一堆一堆的,下面是本文参考的几篇主要的理论文章:http://ww原创 2017-06-15 11:35:17 · 5911 阅读 · 3 评论
分享