
深度学习
文章平均质量分 76
昆仑-郑教主
这个作者很懒,什么都没留下…
展开
-
机器学习:AI资源网址链接(大牛,研究机构,视频,博客,书籍,Quora......)
原文出自:http://blog.youkuaiyun.com/wemedia/details.html?id=42039研究者大多数知名的人工智能研究者在网络上的曝光率还是很高的。下面列举了20位知名学者,以及他们的个人网站链接,维基百科链接,推特主页,Google学术主页,Quora主页。他们中相当一部分人在Reddit或Quora上面参与了问答。Sebas转载 2017-08-09 08:49:54 · 1930 阅读 · 0 评论 -
对Tensorflow整体的理解介绍
Tensorflow为一种机器学习库。优点: 1.可自行设计神经网络结构; 2.不需要通过反向传播求解梯度,Tensorflow支持自动求导; 3.通过C++编写核心代码,简化了线上部署的复杂度(通过SWIG实现Python,Go和JAVA接口); 4.Tensorflow中内置TF.Learn和TF.Slim等组件,并兼容Sciket-learn es原创 2017-08-05 09:52:11 · 8287 阅读 · 0 评论 -
AlexNet卷积神经网络学习参考论文《ImageNet Classification with Deep Convolutional Neural NetWorks》
AlexNet是将LeNet的进一步发展,AlexNet使用的新技术特点:1.使用ReLU作为CNN(Convolutional Neural Network)的激活函数;并与Sigmoid激活函数实现的效果进行比较,并解决了梯度弥散的问题。在目前ReLU函数是最为常用的激活函数,softplus可最为ReLU函数的平滑版本。relu定义为发F(x)=max(x,0);softpl原创 2017-08-07 10:04:36 · 1054 阅读 · 0 评论 -
Tensorflow中卷积函数汇总
卷积函数是在一批图像上扫描的二维过滤器。卷积函数定义在tensorflow-1.1.0/tensorflow/python/ops下的nn_impl.py和nn_ops.py文件中。(1)计算N维卷积的和的函数tf.nn.convolution()tf.nn.convolution(input,filter,padding,strides=None,dilation_rate=None原创 2017-09-04 15:00:21 · 3700 阅读 · 0 评论 -
Tensorflow之池化函数汇总
池化函数:在神经网络中,池化函数一半都是跟在卷积函数的下一层,它们被定义在tensorflow-1.1.0/tensorflow/python/ops下的nn.py和gen_nn_ops.py文件中;池化操作是利用一个矩阵窗口在张量上进行扫描,将每个矩阵窗口中的值通过取最大值或者平均值来减少元素个数。每个池化操作的矩阵窗口大小是由ksize指定的,并且根据步长strides决定移动步长。原创 2017-09-07 20:43:10 · 7708 阅读 · 0 评论 -
Softmax 回归模型
前文已对Logistic回归模型进行过讲解;http://blog.youkuaiyun.com/zSean/article/details/77880463,Softmax 回归模型是logistic回归模型在多分类问题上的推广,在多分类问题中,类标签y可以取两个以上的值;1.在Logistic回归中,给定训练数据集:T={(x1,y1),(x2,y2),....(xN,yN)}, xi为实数,yi原创 2017-09-08 15:52:51 · 1042 阅读 · 0 评论 -
图像识别中的深度学习
转:http://mp.weixin.qq.com/s?__biz=MzAwNDExMTQwNQ==&mid=209152042&idx=1&sn=fa0053e66cad3d2f7b107479014d4478#rd#opennewwindow1、深度学习发展历史深度学习是近十年来人工智能领域取得的重要突破。它在语音识别、自然语言处理、计算机视觉、图像与视频分析、多媒体等诸多领域的应转载 2017-09-20 14:40:37 · 1254 阅读 · 0 评论 -
VGGNet-16网络结构构造
from datetime import datetimeimport mathimport timeimport tensorflow as tf 首先构建conv_op函数,用于创建卷积层并把本层的参数存入参数列表;def conv_op(input_op, name, kh, n_out, dh, dw, p): n_in = input_op.get_shap原创 2017-09-04 09:54:50 · 6977 阅读 · 0 评论