
机器学习
文章平均质量分 90
长风o
本博客为编程学习记录之用,同时方便自己总结和他人借鉴。如有不当之处请联系本人。
展开
-
如何入门深度学习?
在网上看到一篇关于深度学习的贴子,写的比较好,特转来与大家分享,感谢原作者Tel-Aviv大学深度学习实验室的Ofir同学写了一篇如何入门深度学习的文章,顺手翻译一下,造福大家。人工神经网络最近在很多领域(例如面部识别,物体发现和围棋)都取得了突破,深度学习变得炙手可热。如果你对深度学习感兴趣的话,这篇文章是个不错的起点。如果你学过线性代数,微积分,概率论和转载 2017-03-30 22:38:52 · 372 阅读 · 0 评论 -
BP算法双向传,链式求导最缠绵(深度学习入门系列之八)
摘要: 说到BP(Back Propagation)算法,人们通常强调的是反向传播,其实它是一个双向算法:正向传播输入信号,反向传播误差信息。接下来,你将看到的,可能是史上最为通俗易懂的BP图文讲解,不信?来瞅瞅并吐吐槽呗!更多深度文章,请关注:https://yq.aliyun.com/cloud系列文章:一入侯门“深”似海,深度学习深几许(深度学习入门系列之一)人工“碳”索意犹尽,智能“硅”来...转载 2018-06-01 11:13:11 · 1561 阅读 · 1 评论 -
Adaboost算法原理分析和实例+代码(简明易懂)
Adaboost算法原理分析和实例+代码(简明易懂) 【尊重原创,转载请注明出处】 http://blog.youkuaiyun.com/guyuealian/article/details/70995333 本人最初了解AdaBoost算法着实是花了几天时间,才明白他的基本原理。也许是自己能力有限吧,很多资料也是看得懵懵懂懂。网上找了一下关于Adaboost算法原理分析,大都是你复制我,我摘抄你,...转载 2018-06-13 20:25:32 · 623 阅读 · 0 评论 -
深度学习:卷积神经网络与图像识别基本概念
一 卷积神经网络的组成图像分类可以认为是给定一副测试图片作为输入 IϵRW×H×CIϵRW×H×C,输出该图片 属于哪一类。参数 W 是图像的宽度,H 是高度,C 是通道的个数;彩色图像中 C = 3,灰度图像 中 C = 1。一般的会设定总共类别的个数,例如在ImageNet竞赛中总共有 1000 个类别;在CIFAR10 中有 10 个类别。卷积神经网络则可以看成这样的黑匣子。输入转载 2017-11-17 10:40:57 · 20261 阅读 · 1 评论 -
正则化方法:L1和L2 regularization、数据集扩增、dropout
正则化方法:防止过拟合,提高泛化能力在训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合)。其直观的表现如下图所示,随着训练过程的进行,模型复杂度增加,在training data上的error渐渐减小,但是在验证集上的error却反而渐渐增大——因为训练出来的网络过拟合了训练集,对训练集外的数据却不work。为了防止overfitt转载 2017-10-10 17:46:03 · 297 阅读 · 0 评论 -
RELU 激活函数及其他相关的函数
如需转载,请附上本文链接:http://blog.youkuaiyun.com/cyh_24/article/details/50593400日常 coding 中,我们会很自然的使用一些激活函数,比如:sigmoid、ReLU等等。不过好像忘了问自己一(n)件事:为什么需要激活函数?激活函数都有哪些?都长什么样?有哪些优缺点?怎么选用激活函数?本文正是基于这些问题展开的,欢迎批评转载 2017-10-11 10:17:09 · 1037 阅读 · 0 评论 -
数据集搜集整理
1. CIFAR-10 & CIFAR-100 CIFAR-10包含10个类别,50,000个训练图像,彩色图像大小:32x32,10,000个测试图像。 (类别:airplane,automobile, bird, cat, deer, dog, frog, horse, ship, truck) (作者:Alex Krizhevsky, Vinod N原创 2017-10-10 15:54:16 · 13215 阅读 · 0 评论 -
机器学习基础—— Trick(调参技巧)
Trick 1:权值初始化weights = np.ones(N)/N1应用场景:(1)由一堆 decision stump 构成的 weak classifiers 用于AdaBoost 时的的初始权重分配;Trick 2:避免分母为零的方法α=12ln1−ϵϵ令分母上可能的小量 ϵ=max(ϵ,10−16)alpha = 1/转载 2017-10-10 15:35:24 · 2690 阅读 · 0 评论 -
tensorflow:tf.reduce_mean()和tf.reduce_sum()
一,tensorflow中有一类在tensor的某一维度上求值的函数。如:求最大值tf.reduce_max(input_tensor, reduction_indices=None, keep_dims=False, name=None)求平均值tf.reduce_mean(input_tensor, reduction_indices=None, keep_dims=F转载 2017-10-10 09:30:21 · 23001 阅读 · 3 评论 -
tensorflow笔记 :常用函数说明
1.矩阵操作1.1矩阵生成这部分主要将如何生成矩阵,包括全0矩阵,全1矩阵,随机数矩阵,常数矩阵等tf.ones | tf.zerostf.ones(shape,type=tf.float32,name=None) tf.zeros([2, 3], int32) 用法类似,都是产生尺寸为shape的张量(tensor)sess = tf.Intera转载 2017-10-09 15:04:49 · 489 阅读 · 0 评论 -
TSP_旅行商问题 - 遗传算法(四)
一、前言 【旅行商问题】旅行商问题(TravelingSalesmanProblem,TSP)是一个经典的组合优化问题。经典的TSP可以描述为:一个商品推销员要去若干个城市推销商品,该推销员从一个城市出发,需要经过所有城市后,回到出发地。应如何选择行进路线,以使总的行程最短。从图论的角度来看,该问题实质是在一个带权完全无向图中,找一个权值最小的Hamilton回路。由于该问题的可转载 2017-05-05 22:08:54 · 3623 阅读 · 1 评论 -
神经网络的类型
KNN DNN SVM DL BP DBN RBF CNN RNN ANN概述本文主要介绍了当前常用的神经网络,这些神经网络主要有哪些用途,以及各种神经网络的优点和局限性。1 BP神经网络BP (Back Propagation)神经网络是一种神经网络学习算法。其由输入层、中间层、输出层组成的阶层型神经网络,中间层可扩展为多层。相邻层之间各神经元进行全连接,而每层各神经元之间无连接,网络按有教师示...转载 2018-06-01 14:31:30 · 3121 阅读 · 0 评论