
机器学习
文章平均质量分 77
ice_actor
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
文章收藏
个性化推荐是不是伪命题【深度学习&分布式】Parameter Server 详解探寻微博背后的大数据原理:微博推荐算法简述数据分析与挖掘书单推荐,绝对值得一看!(附下载地址) 我读过最好的Epoll模型讲解Epoll模型详解原创 2016-04-08 10:25:40 · 459 阅读 · 0 评论 -
机器学习boosting算法—Adaboost之示例解析
boosting方法是一种常用的统计学习方法,应用广泛且有效,在分类问题中,它通过改变训练样本的权重,学习多个分类器,并将这些分类器进行线性组合,提高分类的性能,这里我们通过Adaboost算法的示例分析来了解boosting方法的基本思路。Adaboost算法1 Adaboost算法流程图 左边是训练数据集,其中直方图的不同长度表示每个样例的权重。在经过一个分类器之后,加权的预测结原创 2018-01-19 15:01:35 · 2603 阅读 · 0 评论 -
机器学习Boosting算法—AdaBoost前向分步解释
算法分析 在Adaboost算法的示例解释中的算法流程中,给出了分类器权重、分类误差以样本权重的更新公式,这一部分从前向分步算法的角度来解释这些公式的由来。 1) 每个分类器的权重计算公式: αm=12ln1−emem\alpha_{m}=\frac{1}{2}ln \frac{1-e_m}{e_m} 2)分类误差的计算公式 em=P(Gm(xi)≠yi)=∑i=1NwmiI(Gm(x原创 2018-01-04 17:20:25 · 1522 阅读 · 0 评论 -
吴恩达deeplearning之结构化机器学习—策略(2)
1.误差分析 本节阐述了怎样根据算法在开发集上的表现来选择算法的优化方向,基本方法:统计算法在开发集上出错的各类样本的比例按照错误的比例大小,来排序算法优化的优先级,因为错误占比越高,意味着算法的优化空间也越大真正工作中,吴恩达建议可以做一个如下的表格 2.修正标注错误的数据 少量的标记错误数据是否需要修正,吴恩达给出的建议是:深度学习对于随机误差具有很强的鲁棒性,即使不修正训练集中的标原创 2017-12-20 22:40:06 · 668 阅读 · 0 评论 -
吴恩达deeplearning之CNN—人脸识别与风格化转换(2)
6.什么是神经网络风格转换把下图content的内容转换成Style风格的图像,结果如下Generate图像所示。 7.什么是深度卷积网络这部分通过一些可视化例子来理解,深度卷积网络在学习一些什么东西。 假如训练了一个Alex卷积网络,我们来详细看网络隐藏单元 从第一层的隐藏单元开始,假设遍历了训练集,然后发现最大化激活运算单元的图片或图片是什么,换句话说,将你的训练集经过神经网络然后弄明白哪原创 2017-11-26 20:46:04 · 2921 阅读 · 0 评论 -
吴恩达deeplearning之结构化机器学习—策略(1)
1.引言 这一部分主要是学习怎样快速高效的优化机器学习项目,加入你想优化你的猫分类器系统,你可以:收集更多的数据增加数据的多样性梯度下降算法训练时间更长一些尝试不同的而优化算法,比如Adam尝试规模更大或更小的网络结构尝试加入Dropout加入l2l_2正则修改网络结构,比如激活函数、隐藏单元个数等等 当优化一个深度学习系统时,通常有很多的方法以供尝试,但是如果选择了一个错误的原创 2017-12-14 00:31:49 · 1335 阅读 · 1 评论 -
吴恩达deeplearning之CNN—人脸识别与风格化转换(1)
1.什么是人脸识别这部分演示了百度总部大楼的人脸识别系统,员工刷脸进出办公区,在这个演示中主要应用到了人脸识别技术和活体检测。 人脸识别的术语: 1)face verification:输入图像、名字ID判断输入图像是不是名字ID指定的用户 2)face recognition:有一个包含K个用户的数据库,拿到一幅图片,然后判断图片中的人是不是在数据库中,在输出指定用户name,不在就输出未识原创 2017-11-23 22:57:37 · 9377 阅读 · 3 评论 -
吴恩达deeplearning之CNN—深度卷积网络
1.前言 在卷积神经网络入门一节中,讲述了卷积神经网络的基本构建,比如卷积层、池化层以及全连接层,在过去很长一段时间,计算机视觉的大量研究都集中在如何组合这些基本构建,形成有效的神经网络。实际中在计算机视觉中表现良好的网络往往也适用于其它的任务,比如其它人训练了一个识别猫的网络结构,而你的任务是自动驾驶,你完全可以借鉴别人的神经网络框架。2.经典网络:LeNet-5 参数个数:约6万个随原创 2017-12-02 00:11:56 · 9892 阅读 · 2 评论 -
吴恩达deeplearning之CNN—目标检测(2)
5. Bounding Box预测 这一部分主要讨论看怎么能得到更为精准的边界框。 在滑动窗口算法中,通过取离散的位置集合然后再上面跑分类器,在有的情况下这些边界框没有一个能完美匹配汽车位置,甚至最合适的边界框可能并不是正方形而是长方形,怎么让边界框的输出更为精准? 其中一个能得到更精准的边界框的算法是YOLO算法,YOLO算法[1]的意思是你只看一次。比如你的输入图像原创 2017-11-21 23:08:40 · 2402 阅读 · 1 评论 -
吴恩达deeplearning之CNN—目标检测(1)
1 目标定位 这一周学习的主要内容是对象检测,它是计算机视觉领域一个新兴的应用方向,相比两年前,它的性能也越来越好,在构建对象检测之前,需要先了解一下对象定位。 对于图片分类任务大家都耳熟能详,算法通过遍历如下图片来判断其中是不是汽车。而对象定位不仅需要算法判断图片中是不是汽车,还要在图片中标记处它的位置,用边框或红色方框把车圈出来,这就是定位分类问题,在后面的章节我们还会分享如果同一幅原创 2017-11-20 22:39:51 · 6777 阅读 · 0 评论 -
吴恩达deeplearning之CNN—卷积神经网络入门
1.边界检测示例假如你有一张如下的图像,你想让计算机搞清楚图像上有什么物体,你可以做的事情是检测图像的垂直边缘和水平边缘。 如下是一个6*6的灰度图像,构造一个3*3的矩阵,在卷积神经网络中通常称之为filter,对这个6*6的图像进行卷积运算,以左上角的-5计算为例 3∗1+0∗0+1∗−1+1∗1+5∗0+8∗−1+2∗1+7∗0+2∗−1=−53*1+0*0+1*-1+1*1+5*0+原创 2017-11-28 22:48:55 · 162895 阅读 · 80 评论 -
keras学习笔记(4)—损失函数
损失函数类型算法详解如何选择参考文献原创 2017-10-25 23:42:43 · 4068 阅读 · 1 评论 -
吴恩达卷积神经网络笔记(2)—深度卷积网络:实例研究
一、 经典的卷积网络LeNet-5AlexNetVGGResNetInception1.1 LeNet-5(Lecun)6000 个参数 Gradient-based learning applied to document recognition(1998)1.2 AlexNet (Hinton)6000万个参数 ImageNet classification with deep原创 2017-11-13 15:56:11 · 1589 阅读 · 0 评论 -
keras学习笔记(3)—优化器
一、keras优化器类别二、算法详解2.1 SGD这里的随机梯度下降,从严格意义上说应该是Mini-batch梯度下降,即每次用一小批样本进行计算,这样一方面具有梯度下降更新参数时低方差的特性,同时也兼顾了随机梯度下降参数更新的效率。 θ=θ−η⋅∇θJ(θ;x(i;i+n);y(i;i+n))\theta = \theta - \eta\cdot \nabla_\theta J(\theta;x原创 2017-10-24 21:37:01 · 11016 阅读 · 0 评论 -
keras学习笔记(1)-Keras的模块架构
1. keras模块思维导图2.keras各个模块原创 2017-10-19 23:42:27 · 3499 阅读 · 0 评论 -
机器学习算法
机器学习—正则化 非常浅显易懂的一篇关于正则化的博文为什么一些机器学习模型需要对数据进行归一化连续特征离散化与归一化 好的特征处理是后续模型优化的关键原创 2016-04-28 12:00:50 · 547 阅读 · 0 评论 -
机器学习boosting算法—梯度提升树(GBDT)
1 回归树算法分析Adaboost算法是提升树的特殊情况,主要用于分类问题,对于回归问题怎么处理呢?? 已知一个训练数据集T={(x1,y1),(x2,y2),...,(xN,yN)}T=\{(x_1,y_1),(x_2,y_2),...,(x_N,y_N)\},假设输入空间为χ\chi,如果将输入空间划分为J个互不相交的区域R1,R2,...,RJR_1,R_2,...,R_J并在每个区域原创 2018-01-19 15:20:58 · 1047 阅读 · 0 评论