数据增强——Keras Image Data Augmentation 各参数详解

图像深度学习任务中,面对小数据集,我们往往需要利用Image Data Augmentation图像增广技术来扩充我们的数据集,而keras的内置ImageDataGenerator很好地帮我们实现图像增广。但是面对ImageDataGenerator中众多的参数,每个参数所得到的效果分别是怎样的呢?本文针对Keras中ImageDataGenerator的各项参数数值的效果进行了详细解释,为各位深度学习研究者们提供一个参考。

我们先来看看ImageDataGenerator的官方说明(https://keras.io/preprocessing/image/):

keras.preprocessing.image.ImageDataGenerator(featurewise_center=False,
   samplewise_center=False,
   featurewise_std_normalization=False,
   samplewise_std_normalization=False,
   zca_whitening=False,
   zca_epsilon=1e-6,
   rotation_range=0.,
   width_shift_range=0.,
   height_shift_range=0.,
   shear_range=0.,
   zoom_range=0.,
   channel_shift_range=0.,
   fill_mode='nearest',
   cval=0.,
   horizontal_flip=False,
   vertical_flip=False,
   rescale=None,
   preprocessing_function=None,
   data_format=K.image_data_format())

官方提供的参数解释因为太长就不贴出来了,大家可以直接点开上面的链接看英文原介绍,我们现在就从每一个参数开始看看它会带来何种效果。

我们测试选用的是kaggle dogs vs cats redux 猫狗大战的数据集,随机选取了9张狗狗的照片,这9张均被resize成224×224的尺寸,如图1:

图片数据集太少?看我七十二变,Keras Image Data Augmentation 各参数详解

图1

1. featurewise

datagen = image.ImageDataGenerator(featurewise_center=True,
   featurewise_std_normalization=True)

featurewise_center的官方解释:"Set input mean to 0 over the dataset, feature-wise." 大意为使数据集去中心化(使得其均值为0),而samplewise_std_normalization的官方解释是“ Divide inputs by std of the dataset, feature-wise.”,大意为将输入的每个样本除以其自身的标准差。这两个参数都是从数据集整体上对每张图片进行标准化处理,我们看看效果如何:

图片数据集太少?看我七十二变,Keras Image Data Augmentation 各参数详解

图2

与图1原图相比,经过处理后的图片在视觉上稍微“变暗”了一点。

2. samplewise

datagen = image.ImageDataGenerator(samplewise_center=True,
   samplewise_std_normalization=True)

samplewise_center的官方解释为:“ Set each sample mean to 0.”,使输入数据的每个样本均值为0;samplewise_std_normalization的官方解释为:“Divide each input by its std.”,将输入的每个样本除以其自身的标准差。这个月featurewise的处理不同,featurewise是从整个数据集的分布去考虑的,而samplewise只是针对自身图片,效果如图3:

图片数据集太少?看我七十二变,Keras Image Data Augmentation 各参数详解

图3

看来针对自身数据分布的处理在猫狗大战数据集上没有什么意义,或许在mnist这类灰度图上有用?读者可以试试。

3. zca_whtening

datagen = image.ImageDataGenerator(zca_whitening=True)

zca白化的作用是针对图片进行PCA降维操作,减少图片的冗余信息,保留最重要的特征,细节可参看:Whitening transformation--维基百科Whitening--斯坦福

很抱歉的是,本人使用keras的官方演示代码,并没有复现出zca_whitening的效果,当我的图片resize成224×224时,代码报内存错误,应该是在计算SVD的过程中数值太大。后来resize成28×28,就没有内存错误了,但是代码运行了一晚上都不结束,因此使用猫狗大战图片无法复现效果,这里转发另外一个博客使用mnist复现出的结果,如下图4。针对mnist的其它DataAugmentation结果可以看这个博客:Image Augmentation for Deep Learning With Keras,有修改意见的朋友欢迎留言。

图片数据集太少?看我七十二变,Keras Image Data Augmentation 各参数详解

图4

4. rotation range

datagen = image.ImageDataGenerator(rotation_range=30)

rotation range的作用是用户指定旋转角度范围,其参数只需指定一个整数即可,但并不是固定以这个角度进行旋转,而是在 [0, 指定角度] 范围内进行随机角度旋转。效果如图5:

图片数据集太少?看我七十二变,Keras Image Data Augmentation 各参数详解

图5

5. width_shift_range & height_shift_range

datagen = image.ImageDataGenerator(width_shift_range=0.5,height_shift_range=0.5)

width_shift_range & height_shift_range 分别是水平位置评议和上下位置平移,其参数可以是[0, 1]的浮点数,也可以大于1,其最大平移距离为图片长或宽的尺寸乘以参数,同样平移距离并不固定为最大平移距离,平移距离在 [0, 最大平移距离] 区间内。效果如图6:

图片数据集太少?看我七十二变,Keras Image Data Augmentation 各参数详解

图6

平移图片的时候一般会出现超出原图范围的区域,这部分区域会根据fill_mode的参数来补全,具体参数看下文。当参数设置过大时,会出现图7的情况,因此尽量不要设置太大的数值。

图片数据集太少?看我七十二变,Keras Image Data Augmentation 各参数详解

图7

6. shear_range

datagen = image.ImageDataGenerator(shear_range=0.5)

shear_range就是错切变换,效果就是让所有点的x坐标(或者y坐标)保持不变,而对应的y坐标(或者x坐标)则按比例发生平移,且平移的大小和该点到x轴(或y轴)的垂直距离成正比。

如图8所示,一个黑色矩形图案变换为蓝色平行四边形图案。狗狗图片变换效果如图9所示。

图片数据集太少?看我七十二变,Keras Image Data Augmentation 各参数详解

图8

图片数据集太少?看我七十二变,Keras Image Data Augmentation 各参数详解

图9

7. zoom_range

datagen = image.ImageDataGenerator(zoom_range=0.5)

zoom_range参数可以让图片在长或宽的方向进行放大,可以理解为某方向的resize,因此这个参数可以是一个数或者是一个list。当给出一个数时,图片同时在长宽两个方向进行同等程度的放缩操作;当给出一个list时,则代表[width_zoom_range, height_zoom_range],即分别对长宽进行不同程度的放缩。而参数大于0小于1时,执行的是放大操作,当参数大于1时,执行的是缩小操作。

参数大于0小于1时,效果如图10:

图片数据集太少?看我七十二变,Keras Image Data Augmentation 各参数详解

图10

参数等于4时,效果如图11:

图片数据集太少?看我七十二变,Keras Image Data Augmentation 各参数详解

图11

8. channel_shift_range

datagen = image.ImageDataGenerator(channel_shift_range=10)

channel_shift_range可以理解成改变图片的颜色,通过对颜色通道的数值偏移,改变图片的整体的颜色,这意味着是“整张图”呈现某一种颜色,像是加了一块有色玻璃在图片前面一样,因此它并不能单独改变图片某一元素的颜色,如黑色小狗不能变成白色小狗。当数值为10时,效果如图12;当数值为100时,效果如图13,可见当数值越大时,颜色变深的效果越强。

图片数据集太少?看我七十二变,Keras Image Data Augmentation 各参数详解

图12

图片数据集太少?看我七十二变,Keras Image Data Augmentation 各参数详解

图13

9. horizontal_flip & vertical_flip

datagen = image.ImageDataGenerator(horizontal_flip=True)

horizontal_flip的作用是随机对图片执行水平翻转操作,意味着不一定对所有图片都会执行水平翻转,每次生成均是随机选取图片进行翻转。效果如图14。

图片数据集太少?看我七十二变,Keras Image Data Augmentation 各参数详解

图14

datagen = image.ImageDataGenerator(vertical_flip=True

vertical_flip是作用是对图片执行上下翻转操作,和horizontal_flip一样,每次生成均是随机选取图片进行翻转,效果如图15。

图片数据集太少?看我七十二变,Keras Image Data Augmentation 各参数详解

图15

当然了,在猫狗大战数据集当中不适合使用vertical_flip,因为一般没有倒过来的动物。

10. rescale

datagen = image.ImageDataGenerator(rescale= 1/255, width_shift_range=0.1)

rescale的作用是对图片的每个像素值均乘上这个放缩因子,这个操作在所有其它变换操作之前执行,在一些模型当中,直接输入原图的像素值可能会落入激活函数的“死亡区”,因此设置放缩因子为1/255,把像素值放缩到0和1之间有利于模型的收敛,避免神经元“死亡”。

图片经过rescale之后,保存到本地的图片用肉眼看是没有任何区别的,如果我们在内存中直接打印图片的数值,可以看到以下结果:

图片数据集太少?看我七十二变,Keras Image Data Augmentation 各参数详解

图16

可以从图16看到,图片像素值都被缩小到0和1之间,但如果打开保存在本地的图片,其数值依然不变,如图17。

图片数据集太少?看我七十二变,Keras Image Data Augmentation 各参数详解

图17

应该是在保存到本地的时候,keras把图像像素值恢复为原来的尺度了,在内存中查看则不会。

11. fill_mode

datagen = image.ImageDataGenerator(fill_mode='wrap', zoom_range=[4, 4])

fill_mode为填充模式,如前面提到,当对图片进行平移、放缩、错切等操作时,图片中会出现一些缺失的地方,那这些缺失的地方该用什么方式补全呢?就由fill_mode中的参数确定,包括:“constant”、“nearest”(默认)、“reflect”和“wrap”。这四种填充方式的效果对比如图18所示,从左到右,从上到下分别为:“reflect”、“wrap”、“nearest”、“constant”。

图片数据集太少?看我七十二变,Keras Image Data Augmentation 各参数详解

图18

当设置为“constant”时,还有一个可选参数,cval,代表使用某个固定数值的颜色来进行填充。图19为cval=100时的效果,可以与图18右下角的无cval参数的图对比。

图片数据集太少?看我七十二变,Keras Image Data Augmentation 各参数详解

图19

自己动手来测试?

这里给出一段小小的代码,作为进行这些参数调试时的代码,你也可以使用jupyter notebook来试验这些参数,把图片结果打印到你的网页上。

%matplotlib inline
import matplotlib.pyplot as plt
from PIL import Image
from keras.preprocessing import image
import glob

# 设置生成器参数
datagen = image.ImageDataGenerator(fill_mode='wrap', zoom_range=[4, 4])

gen_data = datagen.flow_from_directory(PATH, 
                                      batch_size=1, 
                                      shuffle=False, 
                                      save_to_dir=SAVE_PATH,
                                      save_prefix='gen', 
      target_size=(224, 224))

# 生成9张图
for i in range(9):
   gen_data.next() 

# 找到本地生成图,把9张图打印到同一张figure上
name_list = glob.glob(gen_path+'16/*')
fig = plt.figure()
for i in range(9):
   img = Image.open(name_list[i])
   sub_img = fig.add_subplot(331 + i)
   sub_img.imshow(img)
plt.show()

结语

面对小数据集时,使用DataAugmentation扩充你的数据集就变得非常重要,但在使用DataAugmentation之前,先要了解你的数据集需不需要这类图片,如猫狗大战数据集不需要上下翻转的图片,以及思考一下变换的程度是不是合理的,例如把目标水平偏移到图像外面就是不合理的。多试几次效果,再最终确定使用哪些参数。上面所有内容已经公布在我的github(https://github.com/JustinhoCHN/keras-image-data-augmentation)上面,附上了实验时的jupyter notebook文件,大家可以玩一玩,have fun!

### 人脸识别算法详解 #### OpenCV 的人脸识别方法 OpenCV 提供了几种经典的人脸识别技术,主要包括Eigenfaces、Fisherfaces 和 Local Binary Patterns Histograms (LBPH)[^1]。这些方法主要依赖于统计模型来提取人脸的关键特征并进行分类。 - **Eigenfaces** 是一种基于主成分分析(PCA)的技术,它通过降维的方式找到一组能够代表数据集变化方向的基向量,并利用这组基向量表示新图像中的面部特征[^1]。 - **Fisherfaces** 则进一步改进了 PCA 方法,在寻找最佳投影空间时考虑类间差异最大化以及类内差异最小化的原则,从而提高了区分能力[^1]。 - **LBPH(Local Binary Pattern Histogram)** 使用局部二值模式描述子构建直方图作为输入样本特征来进行训练与预测过程。该方法对于光照条件的变化具有较强的鲁棒性[^1]。 ```python import cv2 # 加载预训练好的模型文件路径 recognizer = cv2.face.LBPHFaceRecognizer_create() ``` #### Dlib 的人脸识别实现 Dlib 库实现了更加先进的深度学习驱动型解决方案用于解决实际场景下复杂背景环境中目标定位问题。其核心部分采用了 HOG 特征加线性SVM 分类器完成初步筛选;随后借助 CNN 架构获取更深层次语义信息以提升精度表现水平。 具体流程如下: 1. 首先调用 `dlib.get_frontal_face_detector()` 函数检测图片中所有人脸位置; 2. 接着应用 dnn 模块加载已有的 ResNet 或其他架构形式的前馈神经网络实例对象执行嵌入操作得到固定长度矢量表达结果; 3. 最终比较两份不同个体之间对应数值差距大小判断是否属于同一身份类别成员关系成立与否即可得出结论。 ```python import dlib detector = dlib.get_frontal_face_descriptor() sp = dlib.shape_predictor("shape_predictor_5_face_landmarks.dat") facerec = dlib.face_recognition_model_v1("dlib_face_recognition_resnet_model_v1.dat") def compute_face_descriptor(img, box): shape = sp(img, box) return facerec.compute_face_descriptor(img, shape) boxes = detector(image) descriptors = [compute_face_descriptor(image, b) for b in boxes] ``` #### FaceNet 工作机制概述 FaceNet 是由 Google 开发的一种端到端可微分框架结构设计思路下的产物之一。它的基本理念在于将每张照片映射成欧几里得空间里的一个点坐标位置集合体——即所谓的“脸部表征”。当任意两张真实世界中存在的面孔被转换为此种数学意义上的几何形态之后,则可以通过简单测量它们之间的直线距离远近程度来定量评估相似度得分高低情况如何。 整个系统包含三个重要组成部分: - 数据增强(Data Augmentation): 对原始素材库实施随机变换处理手段增加多样性减少过拟合风险; - 嵌入层(embedding layer): 将高维度像素矩阵压缩至低纬紧凑区域范围内便于后续运算效率优化目的达成; - Triplet Loss Function: 定义三元组损失函数公式指导参数调整方向直至满足预期效果为止. ```python from tensorflow.keras.models import Model from tensorflow.keras.layers import Input, Dense, Lambda input_image = Input(shape=(96, 96, 3)) x = base_network(input_image) output = Dense(128)(x) model = Model(inputs=input_image, outputs=output) def triplet_loss(y_true, y_pred, alpha=0.2): anchor, positive, negative = tf.split(y_pred, num_or_size_splits=3, axis=-1) pos_dist = K.sum(K.square(anchor - positive), axis=-1) neg_dist = K.sum(K.square(anchor - negative), axis=-1) basic_loss = pos_dist - neg_dist + alpha loss = K.maximum(basic_loss, 0.) return K.mean(loss) ```
评论 12
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值