
机器学习
文章平均质量分 78
走投无路的乐乐
这个作者很懒,什么都没留下…
展开
-
机器学习实战决策树plotTree函数完全解析
原文 http://www.cnblogs.com/fantasy01/p/4595902.html在看机器学习实战时候,到第三章的对决策树画图的时候,有一段递归函数怎么都看不懂,因为以后想选这个方向为自己的职业导向,抱着精看的态度,对这本树进行地毯式扫描,所以就没跳过,一直卡了一天多,才差不多搞懂,才对那个函数中的plotTree.xOff的取值,以及计算cntrPt的方法转载 2017-06-22 15:20:17 · 11404 阅读 · 2 评论 -
机器学习之使用FP-growth算法来高效发现频繁项集
本文主要记录本人在学习机器学习过程中的相关代码实现,参考《机器学习实战》from numpy import *#构造简单测试数据def loadSimpDat(): simpDat = [['r', 'z', 'h', 'j', 'p'], ['z', 'y', 'x', 'w', 'v', 'u', 't', 's'],原创 2017-07-07 10:53:24 · 609 阅读 · 0 评论 -
机器学习中-强大的矩阵奇异值分解(SVD)及其应用
版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系wheeleast@gmail.com。也可以加我的微博: @leftnoteasy前言: 上一次写了关于PCA与LDA的文章,PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用转载 2017-09-14 15:53:33 · 444 阅读 · 0 评论 -
使用caffe训练时Loss变为nan的原因
原文:http://blog.youkuaiyun.com/huangynn/article/details/52947894梯度爆炸原因:梯度变得非常大,使得学习过程难以继续现象:观察log,注意每一轮迭代后的loss。loss随着每轮迭代越来越大,最终超过了浮点型表示的范围,就变成了NaN。措施: 1. 减小solver.prototxt中的base_lr,至少减小一个数量级。如果有多个loss laye...转载 2018-03-12 19:35:50 · 198 阅读 · 0 评论 -
ImageNet下载资源(2017年)
原文链接:https://blog.youkuaiyun.com/achirandliu/article/details/78761761首先用教育网邮箱(edu.cn 或edu结尾的)注册个帐号,便可下载这些资源Download links to ILSVRC2017 image data.http://image-net.org/challenges/LSVRC/2017/download-i...转载 2018-07-17 20:38:49 · 2472 阅读 · 0 评论 -
计算机视觉学习资源
https://handong1587.github.io/index.html原创 2018-10-19 21:17:22 · 268 阅读 · 0 评论 -
图片分类比赛总结
0.拿到数据集后别急着建模型,先分析数据可视化数据。 在大多数机器学习任务中,我们首先要做的(也是最重要的任务)就是在使用算法之前分析数据集。这一步骤之所以重要,是因为它能够让我们对数据集的复杂度有深入的了解,这最终将有助于算法的设计。 因此,我决定使用 t 分布随机邻域嵌入(https://lvdmaaten.github.io/tsne/)可视化技术来查看图片的...原创 2018-11-02 09:33:21 · 2185 阅读 · 1 评论 -
HOG做目标检测步骤
This method can be broken into a 6-step process, including:Sampling positive images Sampling negative images Training a Linear SVM Performing hard-negative mining Re-training your Linear SVM usi...原创 2018-11-15 20:19:36 · 437 阅读 · 0 评论 -
白化whitening
原文地址:http://blog.youkuaiyun.com/hjimce/article/details/50864602作者:hjimce一、相关理论 白化这个词,可能在深度学习领域比较常遇到,挺起来就是高大上的名词,然而其实白化是一个比PCA稍微高级一点的算法而已,所以如果熟悉PCA,那么其实会发现这是一个非常简单的算法。 白化的目的是去除输入数据的冗余信息。假设训练数据是图像,由...转载 2018-11-20 21:40:09 · 447 阅读 · 0 评论 -
RANSAC
RANSAC为Random Sample Consensus的缩写,它是根据一组包含异常数据的样本数据集,计算出数据的数学模型参数,得到有效样本数据的算法。它于1981年由Fischler和Bolles最先提出 [1] 。 RANSAC算法经常用于计算机视觉中。例如,在立体视觉领域中同时解决一对相机的匹配点问题及基本矩阵的计算。 RANSAC算...原创 2018-11-21 16:56:00 · 1755 阅读 · 0 评论 -
机器学习之利用PCA来简化数据
本文主要记录本人在学习机器学习过程中的相关代码实现,参考《机器学习实战》 主成分分析( PrincipalComponentAnalysis,PCA) 是一种数据降维方法。在PCA中,数据从原来的坐标系转换到了新的坐标系,新坐标系的选择是由数据本身决定的。第一个新坐标轴选择的是原始数据中方差最大的方向,第二个新坐标轴的选择和第一个坐标轴正交且具有最大方差的方向。该过程一直重复原创 2017-07-07 19:29:58 · 533 阅读 · 0 评论 -
Windows64位下各版本Python安装numpy,SciPy,matplotlib,Ipython模块
刚从Linux装回Windows,体会到了Linux下开发的各种便利后,回到Windows下安装几个Python模块都费了老大劲,写篇博客记录一下。我的系统是Windows64,安装的Python3.5 1、首先你得下载你所需要的各种.whl文件,我是在这里下载的http://www.lfd.uci.edu/~gohlke/pythonlibs/,这里面基本上啥都有。注意在下载的时候对原创 2017-07-13 15:40:14 · 1551 阅读 · 0 评论 -
机器学习之感知机
本文主要记录本人在学习机器学习过程中的相关代码实现,参考《机器学习实战》package perceptron;import java.awt.BorderLayout;import java.awt.event.ActionEvent;import java.awt.event.ActionListener;import javax.swing.*;public class原创 2017-07-06 10:47:26 · 272 阅读 · 0 评论 -
机器学习之使用Apriori算法进行关联分析
本文主要记录本人在学习机器学习过程中的相关代码实现,参考《机器学习实战》from numpy import *def loadDataSet(): return [[1, 3, 4], [2, 3, 5], [1, 2, 3, 5], [2, 5]]def createC1(dataSet): C1=[] for transaction in dataSet:原创 2017-07-06 10:25:09 · 581 阅读 · 0 评论 -
机器学习之利用K-均值聚类算法对未标注数据分组
本文主要记录本人在学习机器学习过程中的相关代码实现,参考《机器学习实战》from numpy import *def loadDataSet(fileName): dataMat=[] with open(fileName) as fr: for line in fr.readlines(): curLine=line.strip().s原创 2017-07-06 10:30:48 · 531 阅读 · 0 评论 -
机器学习之树回归
本文主要记录本人在学习机器学习过程中的相关代码实现,参考《机器学习实战》from numpy import *def loadDataSet(fileName): dataMat=[] with open(fileName) as fr: for line in fr.readlines(): curLine=line.strip(原创 2017-07-06 10:32:35 · 297 阅读 · 0 评论 -
机器学习之预测数值型数据: 回归
本文主要记录本人在学习机器学习过程中的相关代码实现,参考《机器学习实战》from numpy import *import matplotlib.pyplot as pltdef loadDataSet(fileName): numFeat=len(open(fileName).readline().split('\t'))-1 with open(fileName)原创 2017-07-06 10:35:16 · 1288 阅读 · 0 评论 -
机器学习之利用AdaBoost元算法提高分类性能
本文主要记录本人在学习机器学习过程中的相关代码实现,参考《机器学习实战》from numpy import *def loadSimpData(): datMat=matrix([[1.,2.1], [2.,1.1], [1.3,1.], [1.,1.], [2.,1.]]) classLabels=[1.0,1原创 2017-07-06 10:37:51 · 377 阅读 · 0 评论 -
机器学习之支持向量机
本文主要记录本人在学习机器学习过程中的相关代码实现,参考《机器学习实战》from numpy import *def loadDataSet(fileName): dataMat=[];labelMat=[] with open(fileName) as fr: for line in fr.readlines(): lineArr=l原创 2017-07-06 10:40:02 · 326 阅读 · 0 评论 -
机器学习之Logistic回归
本文主要记录本人在学习机器学习过程中的相关代码实现,参考《机器学习实战》from numpy import *import matplotlib.pyplot as pltdef loadDataSet(): dataMat=[];labelMat=[] with open('testSet.txt') as fr: for line in fr.read原创 2017-07-06 10:42:02 · 336 阅读 · 0 评论 -
机器学习之基于概率论的分类方法 : 朴素贝叶斯
本文主要记录本人在学习机器学习过程中的相关代码实现,参考《机器学习实战》#!/usr/bin/env python3# -*- coding: utf-8 -*-from numpy import *import reimport feedparser#~ loadDataSet() 创建了一些实验样本。该函数返回的第一个变量是进行词条切分后的文档集合 , #~ 这些文档来自斑点原创 2017-07-06 10:43:45 · 375 阅读 · 0 评论 -
机器学习之K-近邻算法
本文主要记录本人在学习机器学习过程中的相关代码实现,参考《机器学习实战》'''对未知类别属性的数据集中的每个点依次执行以下操作:(1) 计算已知类别数据集中的点与当前点之间的距离;(2) 按照距离递增次序排序;(3) 选取与当前点距离最小的走个点;(4) 确定前灸个点所在类别的出现频率;(5) 返回前女个点出现频率最高的类别作为当前点的预测分类。'''from numpy原创 2017-07-06 10:45:41 · 212 阅读 · 0 评论 -
Contrastive Loss,Triplet Loss
孪生神经网络(siamese network)中,其采用的损失函数是contrastive loss,这种损失函数可以有效的处理孪生神经网络中的paired data的关系。contrastive loss的表达式如下:其中d=||an−bn||2,代表两个样本特征的欧氏距离,y为两个样本是否匹配的标签,y=1代表两个样本相似或者匹配,y=0则代表不匹配,margin为设定的阈值。...原创 2019-03-11 10:15:59 · 2343 阅读 · 0 评论