
keras
文章平均质量分 73
求则得之,舍则失之
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
样本不平衡解决技巧
大家好!今天,我们将看看一些技巧使用深度学习模型来训练不平衡的数据集。在这种情况下,我们将处理一个不平衡的CIFAR-10图像分类数据集。长尾数据集(不平衡数据集)CIFAR-10数据集由10类60000张32x32彩色图像组成,每类6000张图像。训练图像50000张,测试图像10000张。该数据集是均匀分布类型的数据集。我们可以手工制作自己的长尾CIFAR-10数据集,得到一个不平衡的数据集。如下所示。现在我们有一个长尾的CIFAR-10数据集,其中1、2、4、5、8类数据量很大,0、7类.原创 2021-09-15 19:56:08 · 1340 阅读 · 0 评论 -
基于MNIST数据的Keras可视化
在本文中,我们首先通过模型的准确性和损失函数来观察卷积神经网络的训练性能。接下来,我们通过提取两个隐藏卷积层的权重和激活来深入学习可视化。主要学习以下内容:可视化convnet训练历史可视化权重可视化激活0.导入相关库import kerasfrom keras.datasets import mnistfrom keras.models import Sequentialfrom keras.layers import Dense, Dropout, Activation, Flatt原创 2021-09-07 14:08:33 · 979 阅读 · 0 评论 -
使用GridSearch提高准确性
在卷积深度网络上使用sklearn GridSearch对超参数优化,将MNIST数字识别精度提高到0.982以上。在本文中,我使用Keras包装器来实现scikit-learn的GridSearch API,用于convnet的超参数调优。接下来,我通过使用scikit-plot查看GridSearch的混淆矩阵、ROC曲线和PR曲线来可视化GridSearch的性能。导入相关库import kerasfrom keras.datasets import mnistfrom keras.mode原创 2021-09-07 13:08:48 · 667 阅读 · 0 评论 -
学习率策略以及自适应的梯度下降算法
本文主要学习了以下知识:构建CNN模型进行CIFAR-10训练使用了以下学习率衰减计划:常数学习率,基于时间的衰减,步长衰减,指数衰减使用的自适应梯度下降算法如下:Adagrad, Adadelta, RMSProp, Adam比较了采用不同学习率策略和自适应梯度下降算法的模型性能导入相应的库函数from __future__ import print_functionimport numpy as npimport mathimport matplotlib.pyplot as p原创 2021-09-07 10:38:36 · 2430 阅读 · 1 评论 -
口罩之分类
使用Kaggle的口罩检测数据实现口罩分类。1.导入相关库import osfrom PIL import Imageimport xml.etree.ElementTree as ETimport matplotlib.pyplot as pltimport cv2import numpy as npfrom sklearn.preprocessing import OneHotEncoderfrom sklearn.model_selection import train_test_s原创 2021-09-03 17:06:12 · 294 阅读 · 0 评论 -
Keras中的数据增强
深度网络需要大量的训练数据才能达到良好的性能。为了用很少的训练数据构建强大的图像分类器,通常需要图像增强来提高深度网络的性能。图像增强通过不同的处理方式或多种处理的组合,如随机旋转、平移、剪切、翻转等,人工生成训练图像。在Keras中使用imagedatgenerator生成增强图像使用对比度拉伸,直方图均衡化,自适应直方图均衡化生成自定义增强图像利用图像增强技术在CIFAR-10数据集上训练卷积神经网络1.导入相关库from __future__ import print_function原创 2021-09-02 17:19:49 · 2409 阅读 · 0 评论