
深度学习
文章平均质量分 90
Jerry_xl
2015年毕业于哈尔滨工业大学
本科在企业智能实验室,进行情景感知相关学习
硕士在自然计算实验室,进行机器学习、并行深度计算平台相关研究和学习
目前在阿里巴巴-人工智能实验室-W实验室
展开
-
深度学习——从代码开始
前言目前深度学习抢得了足够的眼球和关注度,从各大公司的布局、到如雨后春笋般出来的一波波的创业公司,再到各种普及入门、深度剖析相关的公众号,每天都有大量技术、论文解读相关的文章、博客等,各种各样的信息如洪水般涌入我们的视野,各种论文解析、各种深度剖析等等,在众多的信息中,我们如何去伪存真、吸收更多的有用的信息和知识点是一个要面对的新的问题。身边也有越来越多的朋友、同学开始向这方面寻求转行,觉得自己所属原创 2017-08-23 23:12:34 · 1637 阅读 · 0 评论 -
从代码学AI——卷积神经网络(CNN)
今天和大家一起来看下基于TensorFlow实现CNN的代码示例,源码参见Convolutional_netWork。使用MNIST数据集进行训练和预测,下面开始代码注解。'''这里从源码的角度详细说明使用TensorFlow如何简单的实现卷积神经网络使用MNIST数据集进行卷积神经网络的实现使用MNIST数据集数据集参见:http://yann.lecun.com/exdb/mnist/)源码地原创 2017-08-29 09:21:37 · 5781 阅读 · 8 评论 -
从代码学AI ——情感分类(LSTM on TFlearn)
前言本篇文章会从代码的角度说明如何基于TFlearn使用LSTM进行文本的情感分类。如果对于TFlearn和LSTM都不熟悉,没有关系,先硬着头皮将代码看下(使用LSTM对IMDB数据集进行情感分类)。从代码的角度看都是很简洁的,所以即使不熟悉,多看看代码,当代码已经熟练于心了,后面如果有一天你漠然回首理解了其中的不解后,你的记忆更加深刻。所以不懂、不熟悉没关系,坚持下去就回明白的。由于实例代码使用原创 2017-08-25 09:28:31 · 3307 阅读 · 0 评论 -
从代码学AI——AutoEncoder
本篇主要介绍自编码这一粗暴、有效的手段。自编码是一个很有趣的思路,很容易被理解和接受,它替代了传统的特征提取过程(深度学习实际上也是替代这个过程,只不过二者方法不一样)1.自编码采用的方式是先对源数据进行编码,即对元数据进行层层抽象2.之后再利用抽象的数据进行数据还原,之后对比还原后的数据和源数据的差异性(计算还原误差,或者通用的叫法是损失值)3.再针对损失值进行优化,使得还原后的损失尽量小。实际上原创 2017-08-31 09:12:30 · 650 阅读 · 0 评论