
机器学习实战
文章平均质量分 52
五道口纳什
wx公众号/B站:五道口纳什
展开
-
matlab 格式化文本文件的解析
比如这样一种格式化的文本文件,文件说明及下载地址:/pub/machine-learning-databases/statlog/german/ 的索引原创 2017-03-02 23:03:30 · 1789 阅读 · 0 评论 -
Normalization的方法
0-1尺度缩放Normalized(ei)=ei−EminEmax−EminNormalized(e_i)=\frac{e_i-E_{min}}{E_{max}-E_{min}}% for matlabIM = IM - min(IM(:));IM = IM / max(IM(:));之所以不采用IM=(IM-min(IM(:)))/(max(IM(:))-min(IM(:)));这样看起来简洁原创 2015-12-10 11:30:11 · 1704 阅读 · 0 评论 -
图像数据的 normalization
Normalization的方法 matlab 工具函数(三)—— normalize(归一化数据)1. 加载指定标准差的噪声原创 2017-04-06 16:10:59 · 2312 阅读 · 0 评论 -
数据集(benchmark)、常用数据集的解析(cifar-10、)
What is the class of this image ?主要是以下常见的数据集,用以衡量算法的分类准确率:mnist、cifar-10、cifar-100stl-10svhn、ILSVRC2012 task 11. cifar-10CIFAR-10 and CIFAR-100 datasetscifar-10-batches-py(Python 接口)import osimpor原创 2017-03-11 11:59:08 · 7414 阅读 · 1 评论 -
libsvm 的使用
1. libsvm 支持的SVM模型官网地址:LIBSVM – A Library for Support Vector Machineslibsvm 支持的 SVM 模型如下原创 2017-05-25 15:19:15 · 1823 阅读 · 0 评论 -
matlab 常用机器学习算法的实现
1. KNN 分类原创 2017-05-25 18:23:20 · 4088 阅读 · 0 评论 -
matlab 机器学习相关函数、api
1. 模型、预测、mse原创 2017-03-28 09:58:17 · 1745 阅读 · 0 评论 -
数据集 —— ground truth 数据集
1. matlab 自带含 ground truth 数据集%% 加载停车标志数据到内存;data = load('stopSignsAndCars.mat', 'stopSignsAndCars');stopSignsAndCars = data.stopSignsAndCars;% 将 stopSignsAndCars 下的图像名,拓展为绝对路径加图像名,以方便读取imagePath =原创 2017-05-06 18:11:06 · 5603 阅读 · 0 评论 -
matlab 构建数据集实用 api
我们当前有如下目录结构的图像数据集(用于图像分类): imageDatastore:imds = imageDatastore('./images', 'IncludeSubfolders', true, 'labelsource', 'foldernames') 第一个参数./images表示文件所在的路径;后续参数都是键值对(key-value)的形式原创 2017-05-09 11:30:36 · 7361 阅读 · 0 评论 -
Dropout 理论基础与实战细节
Dropout: A Simple Way to Prevent Neural Networks from Overfitting对于 dropout 层,在训练时节点保留率(keep probability)为某一概率 pp(0.5),在预测时(前向预测时)为 1.0;1. dropout 网络与传统网络的区别传统网络:原创 2017-03-13 15:13:24 · 2344 阅读 · 0 评论 -
多类别分类问题由 confusion matrix 到分类准确率(accuracy)的计算
conf_mat = confusionmat(y_true, y_pred); % 首先根据数据集上的真实 label 值,和训练算法给出的预测 label 值, % 计算 confusion matrixconf_mat = bsxfun(@rdivide, conf_原创 2017-05-10 09:54:05 · 7661 阅读 · 0 评论 -
transfer learning(matlab 实现)
一句话总结 transfer learning 的核心即是对一个已训练模型微调,使其适应新的应用,如下图示: 为 matlab 接口所训练完成的经典深度神经网络下载地址:Index of /matconvnet/models1. helperImportMatConvNet:加载预训练模型alexnet_mat_file = 'imagenet-caffe-alex.mat';alexnet原创 2017-05-09 21:44:47 · 2391 阅读 · 1 评论 -
机器学习套路 —— 样本集的拆分(正样本、负样本)
collect negative samples of adaboost algorithm for face detection 机器学习中的正负样本所谓正样本(positive samples)、负样本(negative samples),对于某一环境下的人脸识别应用来说,比如教室中学生的人脸识别,则教室的墙壁,窗户,身体,衣服等等便属于负样本的范畴。负样本通过采集的方式获取,也可通原创 2018-01-14 20:03:17 · 22252 阅读 · 0 评论 -
mxnet(gluon)—— 模型、数据集、损失函数、优化子等类、接口大全
1. 数据集dataset_train = gluon.data.ArrayDataset(X_train, y_train)data_iter = gluon.data.DataLoader(dataset_train, batch_size, shuffle=True)for data, label in data_iter: ...2. 模型gluon.n原创 2018-01-15 00:07:12 · 2899 阅读 · 0 评论 -
matlab 下的集成学习工具箱
1. fitcensemble:用于分类问题的集成学习Mdl = fitcensemble(Tbl,ResponseVarName)第一个参数为 table,第二个参数则是 table 中对应的目标属性列的列名(字符串类型)load census1994Mdl1 = fitcensemble(adultdata, 'salay');2. fitenrsemble:集成学习框架Ensemble M原创 2017-04-06 14:55:50 · 4664 阅读 · 0 评论 -
sigmoid function vs softmax function
DIFFERENCE BETWEEN SOFTMAX FUNCTION AND SIGMOID FUNCTION二者主要的区别见于, softmax 用于多分类,sigmoid 则主要用于二分类;原创 2017-04-14 23:30:04 · 1650 阅读 · 0 评论 -
经典卷积神经网络的学习(三)—— Inception Net
Google Inception Net 首次出现在 ILSVRC 2014 的比赛中(和 VGGNet 同年),就以较大优势拔得头筹。那届比赛中的 Inception Net 一般被称为 Inception V1(version 1),其最大的优势在于控制 了参数量(也就控制了计算量)的同时,仍然能够获得非常好的分类性能 —— top-5 错误率 6.67%。Inception V1 降低餐数量的原创 2017-03-13 20:38:07 · 7920 阅读 · 0 评论 -
matlab 图像分块及恢复
1. block_divide% 返回的块向量构成的矩阵,其维度信息为 K^2 * N,每一列由块构成的列向量原创 2017-03-03 16:03:02 · 4937 阅读 · 0 评论 -
matlab 神经网络工具箱的实用
1. 一个简单的 demo(单层感知器)P = [1, 1, 1, 1, 0, 0, 0, 0; 0, 0, 1, 1, 0, 1, 1, 0; 0, 1, 0, 1, 1, 0, 1, 0]; % 每一列表示一个输入样本T = [-1, 1, 1, 1, -1, -1, 1, -1]; % 表示输出值p = [0, 1; 0, 1; 0, 1];原创 2017-03-01 20:49:45 · 3123 阅读 · 0 评论 -
matlab 实现 stacked Autoencoder 解决图像分类问题
1. 加载数据到内存原创 2017-03-27 17:22:38 · 5266 阅读 · 1 评论 -
卷积与反卷积、步长(stride)与重叠(overlap)及 output 的大小
1. 卷积与反卷积如上图演示了卷积核反卷积的过程,定义输入矩阵为 II(4×44\times 4),卷积核为 KK(3×33\times 3),输出矩阵为 OO(2×22\times 2):卷积的过程为:Conv(I,W)=O\text{Conv}(I, W)=O反卷积的过称为:Deconv(W,O)=I\text{Deconv}(W,O)=I(需要对此时的 OO 的边缘进行延拓 padding原创 2017-03-10 22:27:59 · 29469 阅读 · 2 评论 -
深度神经网络调参经验
激活函数的选择,池化模式的确定,网络模型的结构;原创 2017-03-16 14:39:06 · 3341 阅读 · 0 评论 -
数据预处理(normalize、scale)
常见的数据预处理的手段。原创 2017-03-28 11:58:59 · 7653 阅读 · 0 评论 -
深度学习中的数据增强方法
对于较深层次的深度神经网络,其性能会随着训练数据的提升而进一步提升。目前深度学习方法广泛采用的数据增强方法,主要有:multi-scale:多尺度;multi-crop:从原始图像中裁剪中一部分相对小一点的图像;由此也可训练出一种对尺度不敏感的深度神经网络;原创 2017-03-13 21:01:15 · 9185 阅读 · 0 评论 -
经典卷积神经网络的学习(一)—— AlexNet
AlexNet 为卷积神经网络和深度学习正名,以绝对优势拿下 ILSVRC 2012 年冠军,引起了学术界的极大关注,掀起了深度学习研究的热潮。AlexNet 在 ILSVRC 数据集上达到 16.4% 的错误率(需要设定 batch_size=1)models/alexnet_benchmark.py at master · tensorflow/models · GitHub,为一个 Ale原创 2017-03-12 17:03:59 · 3201 阅读 · 0 评论 -
经典卷积神经网络的学习(二)—— VGGNet
1. 简介VGGNet 是牛津大学计算机视觉组(Visual Geometry Group)和 Google DeepMind 公司的研究员一起研发的深度卷积神经网络,其主要探索了卷积神经网络的深度与网络性能间的关系。2. 模型拓扑16-19层深的卷积神经网络;VGGNet 论文中全部使用了 3×33\times 3 的卷积核和 2×22\times 2的池化核, 反复堆叠 3×33\time原创 2017-03-12 17:13:16 · 3428 阅读 · 0 评论 -
matlab 运行 AlexNet
0. alexnet 工具箱下载下载地址:Neural Network Toolbox(TM) Model for AlexNet Network需要先注册(十分简单),登陆,下载;下载完成之后,windows 是无法运行该文件的;需要打开 matlab,进入到该文件所在的路径,双击运行;(注:需要较久的时间下载安装 alexnet)1. demo(十一行代码)deep-learning-i原创 2017-03-22 23:08:02 · 15392 阅读 · 17 评论 -
Momentum(动量/冲量)的理解及应用
1. 基本概念(Momentum vs SGD)Momentum 用于加速 SGD(随机梯度下降)在某一方向上的搜索以及抑制震荡的发生。原创 2017-04-02 10:37:11 · 4007 阅读 · 0 评论 -
one hot 编码的实现
one hot 编码,针对的是类别性属性(categorical),类别型属性可以为特征向量中的任一属性,比如性别(one hot 编码的意义在于,属性之间不具有数值上大小的区别,在对最后结果的影响上一视同仁),也可以是分类问题的输出目标值;原创 2017-03-27 15:02:41 · 3842 阅读 · 0 评论 -
多类 SVM 的损失函数及其梯度计算
CS231n Convolutional Neural Networks for Visual Recognition —— optimization1. 多类 SVM 的损失函数(Multiclass SVM loss)原创 2017-04-29 22:53:54 · 5154 阅读 · 0 评论 -
python 机器学习库 —— featuretools(自动特征工程)
文档:https://docs.featuretools.com/#minute-quick-start所谓自动特征工程,即是将人工特征工程的过程自动化。以 featuretools 为代表的自动特征工程在整个机器学习的端到端实践中扮演的角色如下图所示: 1. demo导入包:import featuretools as ft加载数据:data = ft.demo.loa...原创 2018-04-03 22:48:16 · 5068 阅读 · 0 评论