人工智能
文章平均质量分 78
tensorflow,rnn等
yolan6824
学海无涯苦作舟
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
docker的简单命令运用(run exec)
docker run,docker exec,docker start,docker stop,docker ps ,docker ps -a1.docker run 这个命令是用来新建一个与image相关的container,有点对一个程序建了好几个进程的感觉,在docker里面,我觉得container可以理解成进程的意思。这个要注意的是:docker run 命令是新建一个进程,这是...原创 2018-09-21 18:33:48 · 1368 阅读 · 0 评论 -
语义分析归纳
1.语义分析的任务(1)词的层面:词义消歧/词义标注(word sense disambiguation,WSD)(2)句子层面:语义角色标注(semantic role labeling,SRL)(3)篇章层面:指代消解/共指消解(coreference resolution)2.词义标注/词义消歧(1)含义对于一个多义词,根据该词所处的上下文环境,给出该词的语义。即...原创 2019-02-24 11:04:54 · 2498 阅读 · 0 评论 -
word embedding概述
1.窗口假设窗口是2,这意味着根据两个词来预测下一个词,而正确的词概率最高。通过训练,使正确的词概率最高。2.误差函数使用交叉熵,也可以用最小二乘法,但交叉熵在分类问题上效果更好。3.word2vec输入是one hot形式。4.CBOW通过上下文预测中心词。5.skip-gram通过中心词预测上下文。6.one-hot表示的缺点(1)无法度量两个词之间...原创 2019-02-01 18:09:05 · 377 阅读 · 0 评论 -
theano学习过程
1.定义变量import numpy as npimport theano.tensor as Tfrom theano import function定义常量x = T.dscalar('x') # 建立 x 的容器y = T.dscalar('y') # 建立 y 的容器#或x,y,w = T.dscalars('x','y','w')定义矩阵x = T...原创 2019-02-06 21:57:31 · 298 阅读 · 0 评论 -
numpy学习
1.numpy.linalg.svd这是一个奇异值分解的函数。https://blog.youkuaiyun.com/rainpasttime/article/details/79831533(下面这部分解释全来自上面的链接)输入:np.linalg.svd(a,full_matrices=1,compute_uv=1)参数含义关于奇异值分解的介绍(哇,介绍的非一般的好!)ht...原创 2019-02-07 09:29:24 · 188 阅读 · 0 评论 -
anaconda 安装theano的万能指令!!(vscode下安装成功)
我很感动经历了一堆安装theano的挫折安装theano步骤:1. 在anaconda的的anaconda prompt下进入你的安装环境,输入以下指令:conda install numpy scipy mkl-service libpython m2w64-toolchain 这里另外说一下网上基本上遍布的安装theano方法:使用conda instal...原创 2019-01-27 21:10:36 · 1481 阅读 · 2 评论 -
多项式回归
讲多项式回归讲的很好的一篇文章https://www.cnblogs.com/Belter/p/8530222.html文中多次引用上面这篇文章的内容。1. 多项式回归的作用遇到直线方程无法很好的拟合数据的情况,这个时候可以尝试使用多项式回归。多项式回归中,加入了特征的更高次方(例如平方项或立方项),也相当于增加了模型的自由度,用来捕获数据中非线性的变化。添加高阶项的时候,也增加了...原创 2019-01-21 22:11:20 · 367 阅读 · 0 评论 -
主成分分析
1.概念将一组可能存在相关性的随机变量转变成互不相关的随机变量。这个概念里有三个地方需要理解清楚。(1)随机变量的指代在数据集中,每一个样本,即将数据集理解成一个表格的话,一个样本就是一行,则每一列就是一个特征,也就是一个随机变量,一列的所有取值就是随机变量的所有可能取值(说的所有可能取值只针对训练集,并不是实际生活中所有可能的取值)。(2)相关性的意义相关性在这里的指代是...原创 2019-01-20 21:20:15 · 1623 阅读 · 0 评论 -
交叉熵
文章参考:详解机器学习中的熵、条件熵、相对熵和交叉熵一文搞懂交叉熵在机器学习中的使用,透彻理解交叉熵背后的直觉1.信息量一条信息的信息量大小和它的不确定性有直接的关系。可以认为,信息量的度量就等于不确定性的多少。2.一个随机变量的分布效果可以用熵来衡量比方说,某个事件的概率分布如下图所示:则该事件的熵计算如下:H(X) = -(0.7*log(0.7)+0....原创 2019-02-10 12:32:48 · 183 阅读 · 0 评论 -
讲RNN讲得最容易理解的一篇文章
哇,今天找找RNN,谁知道找到了一篇让我心花怒放的文章啊,嗯。。还不太会转载,就放链接啦https://zhuanlan.zhihu.com/p/28054589原创 2018-09-11 10:55:10 · 1122 阅读 · 0 评论 -
lstm学习
讲的特别好的lstm:lstm介绍1.simpleRNN2.standardRNN使用了隐含层的信息3.信息的表示:c^(t) = f(W.x(t) + U.y(t-1))长时记忆单元:C(t) = gforget*C(t-1) + gin*c^(t)输出:y(t) = gout*f(C(t))隐状态:h(t) = y(t)其中,gin,gout,g...原创 2019-02-07 22:51:42 · 573 阅读 · 0 评论 -
lstm的tensorflow代码实现几个函数的源码及解释
对这三行代码:1.tf.contrib.rnn.BasicLSTMCell总的来说,这个函数就是用来计算cell里面的运算的,比如加入三个门的计算,对应于所有列出的lstm的公式,如果说对应于普通的神经元,就相当于w*x+b这一步运算。源码:@tf_export("nn.rnn_cell.BasicLSTMCell")class BasicLSTMCell(LayerRN...原创 2019-02-09 12:22:56 · 1516 阅读 · 0 评论 -
论如何找tensorflow的源码
以前每次看博客总有大神贴出一大堆源码来解析,今天突然就想写一个关于怎么找tensorflow源码的文章,这里的源码我觉得是来源于调用的库,而调用的库肯定是在本地有存档,所以,找源码就是找tensorflow中的目录~论找函数源码的作用的话,我觉得首先就是源码中的注释很清晰,可以帮助搞懂函数参数的意义比如我要找实现rnn中一个函数的源码进入安装tensorflow的路径,如果对tenso...原创 2018-09-11 09:39:49 · 5890 阅读 · 6 评论 -
应对mnist数据因网站无法加载的问题
WARNING:tensorflow:From d:\vscode project\lstm\new.py:6: read_data_sets (from tensorflow.contrib.learn.python.learn.datasets.mnist) is deprecated and will be removed in a future version.解决办法:自己新建一...原创 2019-02-07 20:06:05 · 525 阅读 · 0 评论 -
tensorflow实现两层神经网络 (附代码)
这里有两份代码,第一份代码是自己写的,第二份来自于腾讯云。腾讯云的代码可以达到90%的准确率。 import tensorflow as tfimport numpy as npimport pickleimport gzip# 首先定义输入def get_input(): f = gzip.open('./mnist.pkl.gz', 'rb') train...原创 2018-08-13 22:06:42 · 1988 阅读 · 0 评论
分享