
深度学习&tensorflow笔记
文章平均质量分 95
有关深度学习的系列笔记,tensorflow的用法和对应实现
multiangle
这个作者很懒,什么都没留下…
展开
-
强化学习的基本知识
评估动作的价值,我们称为Q值:它代表了智能体选择这个动作后,一直到最终状态奖励总和的期望;评估状态的价值,我们称为V值:它代表了智能体在这个状态下,一直到最终状态的奖励总和的期望Q和V可以相互转化。一个状态下的V(s)=E(Q(s, ai)), 是对s下各动作的Q的均值, 即Vπs∑a∈Aπa∣sQsaEQsa))因此,V值是和策略有关的。就像同一个残局,水平高的人觉得大有可为;而水平低的人觉得已经没救了。原创 2025-03-18 19:48:48 · 577 阅读 · 0 评论 -
序列建模分享
基本采用经典Transformer结构。由于只需要对交易进行建模,因此只使用左边Encoding部分结构即可。原创 2024-04-18 10:22:55 · 930 阅读 · 0 评论 -
tensorflow笔记:使用tf来实现word2vec
时隔若干个月,又绕到了word2vec。关于word2vec的原理我就不叙述了,具体可见word2vec中的数学,写的非常好。 我后来自己用Python实现了一遍word2vec,过程写在自己动手写word2vec (一):主要概念和流程以及后续的若干文章中我当时使用的是Hierarchical Softmax+CBOW的模型。给我的感觉是比较累,既要费力去写huffman树,还要自己写计算梯度的原创 2017-01-05 14:50:21 · 29529 阅读 · 21 评论 -
tensorflow笔记:模型的保存与训练过程可视化
保存与读取模型在使用tf来训练模型的时候,难免会出现中断的情况。这时候自然就希望能够将辛辛苦苦得到的中间参数保留下来,不然下次又要重新开始。好在tf官方提供了保存和读取模型的方法。保存模型的方法:# 之前是各种构建模型graph的操作(矩阵相乘,sigmoid等等....)saver = tf.train.Saver() # 生成saverwith tf.Session() as sess:原创 2016-12-28 19:47:11 · 26224 阅读 · 4 评论 -
深度学习笔记:优化方法总结(BGD,SGD,Momentum,AdaGrad,RMSProp,Adam)
最近在看Google的Deep Learning一书,看到优化方法那一部分,正巧之前用tensorflow也是对那些优化方法一知半解的,所以看完后就整理了下放上来,主要是一阶的梯度法,包括SGD, Momentum, Nesterov Momentum, AdaGrad, RMSProp, Adam。 其中SGD,Momentum,Nesterov Momentum是手动指定学习速率的,而后面的Ad原创 2016-11-01 00:31:23 · 81518 阅读 · 12 评论 -
深度学习笔记(六):Encoder-Decoder模型和Attention模型
这两天在看attention模型,看了下知乎上的几个回答,很多人都推荐了一篇文章Neural Machine Translation by Jointly Learning to Align and Translate 我看了下,感觉非常的不错,里面还大概阐述了encoder-decoder(编码)模型的概念,以及传统的RNN实现。然后还阐述了自己的attention模型。我看了一下,自己做了一些摘原创 2016-10-15 23:09:25 · 123306 阅读 · 17 评论 -
tensorflow笔记 :常用函数说明
本文章内容比较繁杂,主要是一些比较常用的函数的用法,结合了网上的资料和源码,还有我自己写的示例代码。建议照着目录来看。1.矩阵操作1.1矩阵生成这部分主要将如何生成矩阵,包括全0矩阵,全1矩阵,随机数矩阵,常数矩阵等tf.ones | tf.zerostf.ones(shape,type=tf.float32,name=None) tf.zeros([2, 3], int32) 用法类似,都是产原创 2016-10-13 11:29:57 · 101244 阅读 · 9 评论 -
tensorflow笔记:多层LSTM代码分析
tensorflow笔记系列: (一) tensorflow笔记:流程,概念和简单代码注释 (二) tensorflow笔记:多层CNN代码分析之前讲过了tensorflow中CNN的示例代码,现在我们来看RNN的代码。不过好像官方只给了LSTM的代码。那么我们就来看LSTM吧。LSTM的具体原理就不讲了,可以参见深度学习笔记(五):LSTM,讲的非常清楚。坦白说,这份写LSTM的代码有点难,原创 2016-10-08 17:33:34 · 166782 阅读 · 68 评论 -
tensorflow笔记:多层CNN代码分析
在之前的tensorflow笔记:流程,概念和简单代码注释 文章中,已经大概解释了tensorflow的大概运行流程,并且提供了一个mnist数据集分类器的简单实现。当然,因为结构简单,最后的准确率在91%左右。似乎已经不低了?其实这个成绩是非常不理想的。现在mnist的准确率天梯榜已经被刷到了99.5%以上。为了进一步提高准确率,官网还提供了一个多层的CNN分类器的代码。相比之前的一层神经网络,这原创 2016-10-03 18:05:44 · 48917 阅读 · 12 评论 -
tensorflow笔记:流程,概念和简单代码注释
tensorflow是google在2015年开源的深度学习框架,可以很方便的检验算法效果。这两天看了看官方的tutorial,极客学院的文档,以及综合tensorflow的源码,把自己的心得整理了一下,作为自己的备忘录。tensorflow笔记系列: (一) tensorflow笔记:流程,概念和简单代码注释 (二) tensorflow笔记:多层CNN代码分析 (三) tensorfl原创 2016-09-27 08:13:18 · 72230 阅读 · 25 评论 -
深度学习笔记(五):LSTM
看到一篇讲LSTM非常清晰的文章,原文来自Understanding LSTM Networks , 译文来自理解LSTM网络Recurrent Neural Networks人类并不是每时每刻都从一片空白的大脑开始他们的思考。在你阅读这篇文章时候,你都是基于自己已经拥有的对先前所见词的理解来推断当前词的真实含义。我们不会将所有的东西都全部丢弃,然后用空白的大脑进行思考。我们的思想拥有持久性。 传转载 2016-09-21 11:04:46 · 39251 阅读 · 7 评论 -
深度学习笔记(四):循环神经网络的概念,结构和代码注释
深度学习笔记(一):logistic分类 深度学习笔记(二):简单神经网络,后向传播算法及实现 深度学习笔记(三):激活函数和损失函数 深度学习笔记(四):循环神经网络的概念,结构和代码注释本文的概念和结构部分摘自循环神经网络惊人的有效性(上),代码部分来自minimal character-level RNN language model in Python/numpy 我对代码做了详细的注原创 2016-09-18 10:13:28 · 26240 阅读 · 10 评论 -
深度学习笔记(三):激活函数和损失函数
这一部分来探讨下激活函数和损失函数。在之前的logistic和神经网络中,激活函数是sigmoid, 损失函数是平方函数。但是这并不是固定的。事实上,这两部分都有很多其他不错的选项,下面来一一讨论3. 激活函数和损失函数3.1 激活函数关于激活函数,首先要搞清楚的问题是,激活函数是什么,有什么用?不用激活函数可不可以?答案是不可以。激活函数的主要作用是提供网络的非线性建模能力。如果没有激活函数,那么原创 2016-09-17 16:30:07 · 124581 阅读 · 10 评论 -
深度学习笔记(二):简单神经网络,后向传播算法及实现
在之前的深度学习笔记(一):logistic分类 中,已经描述了普通logistic回归以及如何将logistic回归用于多类分类。在这一节,我们再进一步,往其中加入隐藏层,构建出最简单的神经网络2.简单神经网络及后向传播算法2.1 大概描述和公式表达神经网络的大概结构如图所示, 从左往右,分别是输入层,隐藏层,输出层,分别记为x\mathbf x,h\mathbf h, y\mathb原创 2016-09-16 22:31:45 · 17317 阅读 · 4 评论 -
深度学习笔记(一):logistic分类
这个系列主要记录我在学习各个深度学习算法时候的笔记,因为之前已经学过大概的概念,所以这轮学习比较着重于公式推导和具体实现,而对概念上的描述不多,因此比较适合对此有一定基础的同学。 在正式开始写深度学习的知识之前,会有两节传统神经网络的内容,因为深度学习中大量运用了以往神经网络的知识。搞懂传统的神经网络如何工作是很有必要的,有助于对之后的学习打下坚实的基础。1. logistic分类几乎所有的教材都是原创 2016-09-16 11:28:49 · 28332 阅读 · 6 评论