Train Stacked Autoencoders for Image Classification
1. 加载数据到内存
[train_x, train_y] = digitTrainCellArrayData;
% 并随机选择显示 100 副图像,
n = 100;
idx = randi([1, size(train_x, 2)], n);
for i=1:n
subplot(10, 10, i), imshow(train_x{idx(i)});
end
2. 定义并训练 autoencoder 网络模型
简单起见,这里仅给出一个具有一个单隐层(隐层的神经元节点数为 100)的堆栈式自编码器,
rng('default');
num_hid1 = 100;
% 因为是自编码器,也属于无监督学习算法,因此不需要目标值 train_y 的参与
ae1 = trainAutoencoder(train_x, num_hid1, ...
'MaxEpochs', 400, ...
'L2WeightRegularization', .004, ...
'SparsityRegularization', 4, ...
'SparsityProportion', .15, ...
'ScaleData', false);
定义网络拓扑结构的过程,也是训练的过程。
3. 过程及中间变量的可视化
- 可视化模型拓扑:
view(ae1) - 可视化学到的权值矩阵:
plotWeights(ae1)
4. 训练第二个 autoencoder
% 使用第一个自编码器得到其对应的压缩编码,
feat1 = encode(ae1, train_x);
num_hid2 = 50;
ae2 = trainAutoencoder(feat1, num_hid2, ...
'MaxEpochs', 100, ...
'L2WeightRegularization', .002, ...
'SparsityRegularization', 4, ...
'SparsityPropotion', .1, ...
'ScaleData', false);
view(ae2);
% 使用第二个自编码器得到其对应的压缩编码
feat2 = encode(ae2, feat1);
5. 应用于分类问题
softnet = trainSoftmaxLayer(feat2, train_y, 'MaxEpochs', 400);
view(softnet)
6. 组建 stacked autoencoder
deepnet = stack(ae1, ae2, softnet);
view(deepnet)
本文介绍了一种利用堆叠自编码器进行图像分类的方法。首先加载图像数据,并随机展示部分样本;接着,通过定义和训练具有单隐层的自编码器,逐步抽取图像特征;再使用softmax层完成分类任务;最后,将各组件组合成堆叠自编码器。
1165

被折叠的 条评论
为什么被折叠?



