- 博客(6)
- 资源 (2)
- 收藏
- 关注
原创 Tensorflow之RNN实践(二)
参考以下这篇文章学习,从上层模块结构到底层代码都分析得很清晰 http://blog.youkuaiyun.com/mydear_11000/article/details/52414342。直接从模型构建过程开始,RNN的核心单元是一个可沿时间序列展开的cell,一般先定义模型中要使用到的cell结构: lstm_cell = tf.nn.rnn_cell.BasicLSTMCell(size, fo
2016-11-20 15:48:21
2748
原创 Tensorflow之RNN实践(一)
最近学tensorflow里面的RNN,tensorflow框架下给RNN封装了很多方便利用的函数模块。RNN在自然语言处理中使用的较为广泛,https://github.com/tensorflow/tensorflow/tree/master/tensorflow/models/rnn/ptb, 官网给的这个例子就是基于NLP的,根据上文预测下一个词,再讲RNN的结构之前,感觉数据处理这块有必要
2016-11-20 15:19:09
3837
原创 Tensorflow之CNN实践
最近刚学习完tensorflow cnn并用它跑了个实验。在tensorflow官网有关于手写数据集识别MNIST的实验,链接如下 https://www.tensorflow.org/versions/r0.11/tutorials/mnist/pros/index.html与上一篇NN相比,CNN的难度体现在以下两点: 1. 对输入数据的处理 2. 网络中增加了更多的超参数相比于NN,CN
2016-11-19 19:49:21
758
原创 NLP之word perplexity
原文来自wiki百科 https://en.wikipedia.org/wiki/Perplexity在信息论中,perplexity(复杂度)是用来评价一个语言模型预测一个样本是否很好的标准。它可以用来对比语言模型的性能。复杂度越低,代表模型的预测性能越好。概率分布的复杂度 x为随机变量,p(x)为x的分布,x的复杂度定义为: 概率模型的复杂度 给定一个概率模型q, 用它来预测独立的样本x
2016-11-17 17:19:29
5692
原创 Tensorflow之nn 简单神经网络学习
最近在深入研究深度学习,关于机器学习的基本知识就略过不说了,在深度学习里面,一些概念性的东西还是很好理解的,重点是如何利用已有的知识去构建一个合适解决实际问题的模型,然后用各种小trick去把参数调优。 试水阶段,为了训一个简单的二分类问题,搭了一个两层的神经网络这里是不加bias的简单模型def init_weight(shape): return tf.Variable(tf.rand
2016-11-09 15:03:09
1681
原创 线性判别分析(Linear Discriminant Analysis, LDA) 算法分析与代码
1. 算法描述 LDA是一种特征降维算法,目前的工作在使用SVM分类的时候,遇到特征维数过大而导致过拟合的问题,所以希望通过LDA算法降低特征维度,解决过拟合的问题。LDA算法的目的是使得样本在投影后的子空间中保持最大的类间距离和最小的类内距离。2. 公式推导 首先计算类内样本均值和类间样本均值: 然后得到类间离散度矩阵和类内离散度矩阵: 通过fisher线性
2016-11-03 15:52:46
2099
1
QM算法求最小蕴含项
2014-08-04
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人