
深度学习
文章平均质量分 67
accumulate_zhang
我好像什么都不会,真的!!!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
keras Hello world
刚开始入门keras,不知道keras未来的重要程度是怎么样的。但是还是学一学吧。下面是学习keras的入门,相当于hello world级别。#coding=utf-8__author__ = 'zhangxiaozi'from sklearn import datasetsimport numpy as npfrom sklearn.cross_validation imp原创 2017-09-23 11:07:21 · 1263 阅读 · 0 评论 -
加L2正则化防止过拟合前后准确率变化,以及权重初始化
最近在看深度模型处理nlp文本分类。一般在写模型的时候,L2正则化系数设为0了,没有去跑正则化。还有一个小trick,就是一些权重的初始化,比如CNN每层的权重,以及全连接层的权重等等。一般这些权重可能选择随机初始化,符合某种正态分布。虽然结果影响不大,但是肯定会影响模型收敛以及准确率的。先上两张图。第一张原创 2017-12-15 11:03:37 · 6054 阅读 · 2 评论 -
通俗理解LSTM的内部门操作(个人理解,可能不科学)
参考博客:http://www.jianshu.com/p/9dc9f41f0b29希望大家在阅读下面文字的时候,已经读完上面的文章了,因为下面的文字是根据上面文章来写的。首先,深度学习模型已经在各种研究领域中取得了很大的发展,主要说一下自己就CNN和RNN,LSTM模型的一些理解。(适合理解不透彻或者掌握不到精髓的读者,初学者可以看上面的博客,大神可以忽略)首原创 2017-11-19 21:38:52 · 9868 阅读 · 2 评论 -
Windows在pip install tensorflow遇到的问题 一些python安装包的时候,超时问题以及权限问题
交代一下环境,win10系统,已经装了anaconda。现在是要安装TensorFlow选择直接安装TensorFlow,一般直接pip install tensoflow 就可以了。但是我安装的时候遇到两个问题。就是下面的两个问题。然后逐一解决了,就可以安装了Windows在pip 一些python安装包的时候,超时问题以及权限原创 2017-10-25 20:12:37 · 18537 阅读 · 3 评论 -
Yoon Kim的textCNN讲解,以及tensorflow实现,CNN文本分类
本文转载自:http://www.dataguru.cn/forum.php?mod=viewthread&tid=637971&extra=page=1&page=1Ox00: Motivation最近在研究Yoon Kim的一篇经典之作Convolutional Neural Networks for Sentence Classification,这篇文章可以说是转载 2017-11-11 09:17:13 · 12119 阅读 · 1 评论 -
tensorflow中的优化器:优化器Optimizer
更新时间:2017.5.9简化了很多不需要的内容,关注重点。反正是要学一些API的,不如直接从例子里面学习怎么使用API,这样同时可以复习一下一些基本的机器学习知识。但是一开始开始和以前一样,先直接讲类和常用函数用法,然后举例子。 这里主要是各种优化器,以及使用。因为大多数机器学习任务就是最小化损失,在损失定义的情况下,后面的工作就交给优化器啦。 因为深度学转载 2017-11-01 10:03:42 · 2733 阅读 · 0 评论 -
AttributeError: module 'tensorflow' has no attribute 'select'
在学习TensorFlow时,遇到一个选择函数,使用tf.select()和tf.greater()来做选择操作。原文参考:with tf.Session() as sess: print(tf.greater(v1,v2).eval()) print (tf.select(tf.greater(v1,v2),v1,v2).eval())但是上面代码运行原创 2017-10-14 20:49:40 · 4831 阅读 · 0 评论 -
从安装Ubuntu一直到TensorFlow的安装
虽然以前自己装过虚拟机,装过Ubuntu,但是在装的过程中遇到的问题还是无法直接解决还是要百度许多博客或者方法,为了防止以后还要装,并且可以直接迅速的完整系统的安装以及一些常见问题的解决,写下这个笔记。原文参考http://blog.youkuaiyun.com/accumulate_zhang/article/details/783225641.首先下载一个VM虚拟机软件,最好是VM10以上版本的。2. 下...原创 2017-10-23 19:59:05 · 1223 阅读 · 0 评论 -
《TensorFlow实战实例》的一些错误更正ValueError: Only call `sparse_softmax_cross_entropy_with_logits` with named a
在学习《TensorFlow实战Google深度学习框架》这本书的时候,发现书上提供的代码有一些错误。原因是自己的TensorFlow的版本比较高,相对于书上的版本,一些API都变了,所以有些函数在书中的程序中是错误的,所以程序在运行的时候就会报错。比如:第五章中完整的训练MNIST数据的神经网络模型的程序代码中,直接运行程序的话会遇到以下的错误。首先:ValueError原创 2017-10-16 21:06:05 · 11164 阅读 · 5 评论 -
dropout 的理解
理解dropout注意:图片都在github上放着,如果刷不开的话,可以考虑翻墙。转载请注明:http://blog.youkuaiyun.com/stdcoutzyx/article/details/49022443123开篇明义,dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。注意是暂时,对于随机梯度下降来说,由于是随机丢弃,故而每一个m转载 2017-10-28 11:14:34 · 607 阅读 · 0 评论 -
神经网络中的激活函数
如需转载,请附上本文链接:http://blog.youkuaiyun.com/cyh_24/article/details/50593400日常 coding 中,我们会很自然的使用一些激活函数,比如:sigmoid、ReLU等等。不过好像忘了问自己一(n)件事:为什么需要激活函数?激活函数都有哪些?都长什么样?有哪些优缺点?怎么选用激活函数?本文正是基于这些问题展开的,欢迎批评转载 2017-09-12 10:30:08 · 308 阅读 · 0 评论 -
关于CNN减少参数个数原理的理解
CNN 卷积神经网络学习除了增加卷积层和采样层,在传统人工神经网络的基础上,卷积神经网络还通过感受野和权值共享大大地减少了参数,降低了训练难度,也避免了参数过多引起过拟合(overfitting)。 降低参数量级为什么要降低参数量级?从下面的例子就可以很容易理解了。如果我们使用传统神经网络方式,对一张图片进行分类,那么,我们把图片的每个像素都连接到隐原创 2017-09-03 11:10:22 · 10492 阅读 · 0 评论 -
感知器的学习
深度网络:进一步理解,需要先讲感知器的知识。神经元也叫作感知器。感知器的组成部分:感知器能做什么?感知器简单的应用是:布尔运算对于两个数x1,x2,求and操作和or操作可以根据真值表尝试一下:and操作:w1=0.5 w2=0.5, b=-0.8or原创 2017-09-11 10:52:36 · 2320 阅读 · 0 评论 -
2017年AI技术盘点:关键进展与趋
本专栏用于转载一些博客,专栏的一些好文章,我会注明原文章的出处,如有不妥之处,会立即删除。原文链接:http://blog.youkuaiyun.com/qq_40027052/article/details/78968370作者 | 张俊林,新浪微博AI实验室资深算法专家 责编 | 何永灿人工智能最近三年发展如火如荼,学术界、工业界、投资界各方一起发力,硬件、算法与数据共同发展,转载 2018-01-09 22:39:07 · 551 阅读 · 0 评论