keras深度训练2:训练分析

本文解答了深度学习训练过程中的常见问题,包括val_loss曲线震荡、val_acc接近0、loss值为负数或NAN等问题的原因及解决方案。同时介绍了如何观察loss和acc变化,以及如何处理过拟合问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

3. 常见问题
3.1 val_loss曲线或val_acc曲线震荡不平滑

原因可能如下:

  1. 学习率可能太大
  2. batch size太小
  3. 样本分布不均匀
  4. 缺少加入正则化
  5. 数据规模较小
3.2 val_acc几乎为0

这里写图片描述

一种很重要的原因是数据split的时候没有shuffle

import numpy as np
index = np.arange(data.shape[0])
np.random.seed(1024)
np.random.shuffle(index)
data=data[index]
labels=labels[index]
3.3 训练过程中loss数值为负数?

原因:输入的训练数据没有归一化造成
解决方法:把输入数值通过下面的函数过滤一遍,进行归一化

#数据归一化  
def data_in_one(inputdata):  
    inputdata = (inputdata-inputdata.min())/(inputdata.max()-inputdata.min())  
    return inputdata 
3.4 怎么看loss和acc的变化(loss几回合就不变了怎么办?)
  1. train loss 不断下降,test loss不断下降,说明网络仍在学习;
  2. train loss 不断下降,test loss趋于不变,说明网络过拟合;
  3. train loss 趋于不变,test loss不断下降,说明数据集100%有问题;
  4. train loss 趋于不变,test loss趋于不变,说明学习遇到瓶颈,需要减小学习率或批量数目;
  5. train loss 不断上升,test loss不断上升,说明网络结构设计不当,训练超参数设置不当,数据集经过清洗等问题。
3.5 训练中发现loss的值为NAN,这时可能的原因如下:
  1. 学习率太高
  2. 如果是自己定义的损失函数,这时候可能是你设计的损失函数有问题

一般来说,较高的acc对应的loss较低,但这不是绝对,毕竟他们是两个不同的东西,所以在实际实现中,我们可以对两者进行一个微调。

3.6 epoch轮数/BN/dropout/

关于epoch设置问题,我们可以设置回调函数,选择验证集最高的acc作为最优模型。

关于BN和dropout,其实这两个是两个完全不同的东西,BN针对数据分布,dropout是从模型结构方面优化,所以他们两个可以一起使用,对于BN来说其不但可以防止过拟合,还可以防止梯度消失等问题,并且可以加快模型的收敛速度,但是加了BN,模型训练往往会变得慢些。

3.7 深度网络的过拟合问题讨论
3.7.1 加入Dropout层

代码示意:

……
from keras.layers import Concatenate,Dropout
……
concatenate = Concatenate(axis=2)([blstm,embedding_layer])

concatenate=Dropout(rate=0.1)(concatenate)
3.7.2 检查数据集是否过小(Data Augmentation)

下面这段代码是我对自己实验数据做的augmentation,可以给大家提供一个参考。首先,我的数据集如图所示:
这里写图片描述

我的数据库中的essays表中有7列,每一行为一个数据样本,其中第一列AUTHID为样本编号,TEXT为文本内容,后面为文本的标记。对于文本的augmentation,一个比较合理的扩增数据集的方法就是将每一个文本的句子循环移位,这样可以最大限度地保证文本整体的稳定。下面的代码读取essays表格中的样本信息,对文本进行循环移位后存入到table_augment表中。

代码示意:

#!/usr/bin/python
# -*- coding:utf8 -*-


from sqlalchemy import create_engine    # mysql orm interface,better than mysqldb
import pandas as pd
import spacy    # a NLP model like NLTK,but more industrial.
import json

TO_SQL='table_augment'
READ_SQL_TABLE='essays'

def cut_sentences(df):
    all_text_name = df["AUTHID"]  # type pandas.Series:get all text name(match the "#AUTHID" in essays)

    all_text = df["TEXT"]  # type pandas.Series:get all text(match the "TEXT" in essays)

    all_label_cEXT=df["cEXT"]
    all_label_cNEU=df["cNEU"]
    all_label_cAGR=df["cAGR"]
    all_label_cCON=df["cCON"]
    all_label_cOPN=df["cOPN"]

    all_number = all_text_name.index[-1]    # from 0 to len(all_text_name)-1
    for i in xrange(0,all_number+1,1):
        print("start to deal with text ", i ," ...")
        text = all_text[i]  # type str:one of text in all_text

        text_name = all_text_name[i]    # type str:one of text_name in all_text_name

        nlp = spacy.load('en')

        test_doc = nlp(text)#.decode('utf8'))
        cut_sentence = []
        for sent in test_doc.sents:     # get each line in the text
            cut_sentence.append(sent.text)
            """
            type sent is spacy.tokens.span.Span, not a string,
            so, we call the member function Span.text to get its unicode form
            """
        line_number = len(cut_sentence)
        for itertor in range(line_number):
            if itertor !=0:
                cut_sentence=cut_sentence[1:]+cut_sentence[:1]
            cut_sentence_json = json.dumps(cut_sentence)
            input_data_dic = {'text_name': str(itertor)+"_"+text_name,
                             'line_number':line_number,
                             'line_text': cut_sentence_json,
                             'cEXT': all_label_cEXT[i],
                              'cNEU': all_label_cNEU[i],
                              'cAGR': all_label_cAGR[i],
                              'cCON': all_label_cCON[i],
                              'cOPN': all_label_cOPN[i]
                             }

            input_data = pd.DataFrame(input_data_dic,index=[i],columns=['text_name',
                                                                        'line_number',
                                                                        'line_text',
                                                                        'cEXT',
                                                                          'cNEU',
                                                                          'cAGR',
                                                                          'cCON',
                                                                          'cOPN'])

            input_data.to_sql(TO_SQL, engine, if_exists='append', index=False, chunksize=100)
        """
        DataFrame.index will be insert to table by default. We don't want it, so we set the 
        index = False(True default)
        """
        print("text ", i ," finished")

if __name__ =='__main__':
    engine = create_engine('mysql+pymysql://root:root@localhost:3306/personality_1?charset=utf8', echo=True,convert_unicode=True)

    df = pd.read_sql_table(READ_SQL_TABLE, engine,chunksize=5)  # read essays
    for df_iter in df:
        cut_sentences(df_iter)

3.7.3 用一用迁移学习的思想

具体来讲就是model.load人家训练好的weight.hdf5,然后在这个基础上继续训练。具体可以见之后的博文中的断点训练。

3.7.4 调参小tricks.

调小学习速率(Learning Rate)之前已经讲过不在赘述
适当增大batch_size。之前已经讲过不在赘述
试一试别的优化器(optimizer)之前已经讲过不在赘述
Keras的回调函数EarlyStopping() 之前已经讲过,不再赘述

3.7.5 正则化方法

正则化方法是指在进行目标函数或代价函数优化时,在目标函数或代价函数后面加上一个正则项,一般有L1正则与L2正则等。

代码片段示意:

from keras import regularizers
……
out = TimeDistributed(Dense(hidden_dim_2,
                            activation="relu",
                            kernel_regularizer=regularizers.l1_l2(0.01,0.01),
                            activity_regularizer=regularizers.l1_l2(0.01,0.01)
                            )
                      )(concatenate)

……

dense=Dense(200,
            activation="relu",
            kernel_regularizer=regularizers.l1_l2(0.01,0.01),
            activity_regularizer=regularizers.l1_l2(0.01,0.01)
            )(dense)

更多参考信息:
https://blog.youkuaiyun.com/mrgiovanni/article/details/52167016

Keras:基于Theano和TensorFlow的深度学习库 这就是Keras Keras是一个高层神经网络库,Keras由纯Python编写而成并基Tensorflow或Theano。Keras 为支持快 速实验而生,能够把你的idea迅速转换为结果,如果你有如下需求,请选择Keras: 简易和快速的原型设计(keras具有高度模块化,极简,和可扩充特性) 支持CNN和RNN,或二者的结合 支持任意的链接方案(包括多输入和多输出训练) 无缝CPU和GPU切换 Keras适用的Python版本是:Python 2.7-3.5 Keras的设计原则是 模块性:模型可理解为一个独立的序列或图,完全可配置的模块以最少的代价自由组合在一起。具 体而言,网络层、损失函数、优化器、初始化策略、激活函数、正则化方法都是独立的模块,你可 以使用它们来构建自己的模型。 极简主义:每个模块都应该尽量的简洁。每一段代码都应该在初次阅读时都显得直观易懂。没有黑 魔法,因为它将给迭代和创新带来麻烦。 易扩展性:添加新模块超级简单的容易,只需要仿照现有的模块编写新的类或函数即可。创建新模 块的便利性使得Keras更适合于先进的研究工作。 与Python协作:Keras没有单独的模型配置文件类型(作为对比,caffe有),模型由python代码描 述,使其更紧凑和更易debug,并提供了扩展的便利性。 Keras2015年3月开始启动,经过一年多的开发,目前Keras进入了1.0的时代。Keras 1.0依然遵循相 同的设计原则,但与之前的版本相比有很大的不同。如果你曾经使用过此前的其他版本Keras。你或许 会关心1.0的新特性。 泛型模型:简单和强大的新模块,用于支持复杂深度学习模型的搭建。 更优秀的性能:现在,Keras模型的编译时间得到缩短。所有的RNN现在都可以用两种方式实现, Keras中文文档 以供用户在不同配置任务和配置环境下取得最大性能。现在,基于Theano的RNN也可以被展开, 以获得大概25%的加速计算。 测量指标:现在,你可以提供一系列的测量指标来在Keras的任何监测点观察模型性能。 更优的用户体验:我们面向使用者重新编写了代码,使得函数API更简单易记,同时提供更有效的 出错信息。 新版本Keras提供了Lambda层,以实现一些简单的计算任务。 ... 如果你已经基于Keras0.3编写了自己的层,那么在升级后,你需要为自己的代码做以下调整,以 在Keras1.0上继续运行。请参考编写自己的层 关于Keras-cn 本文档是Keras文档的中文版,包括keras.io的全部内容,以及更多的例子、解释和建议,目前,文档 的计划是: 1.x版本:现有keras.io文档的中文翻译,保持与官方文档的同步 2.x版本:完善所有【Tips】模块,澄清深度学习中的相关概念和Keras模块的使用方法 3.x版本:增加Keras相关模块的实现原理和部分细节,帮助用户更准确的把握Keras,并添加更多 的示例代码 现在,keras-cn的版本号将简单的跟随最新的keras release版本 由于作者水平和研究方向所限,无法对所有模块都非常精通,因此文档中不可避免的会出现各种错误、 疏漏和不足之处。如果您在使用过程中有任何意见、建议和疑问,欢迎发送邮件 到moyan_work@foxmail.com与我取得联系。 您对文档的任何贡献,包括文档的翻译、查缺补漏、概念解释、发现和修改问题、贡献示例程序等,均 会被记录在致谢,十分感谢您对Keras中文文档的贡献! 同时,也欢迎您撰文向本文档投稿,您的稿件被录用后将以单独的页面显示在网站中,您有权在您的网 页下设置赞助二维码,以获取来自网友的小额赞助。 如果你发现本文档缺失了官方文档的部分内容,请积极联系我补充。 本文档相对于原文档有更多的使用指导和概念澄清,请在使用时关注文档中的Tips,特别的,本文档的 额外模块还有: 一些基本概念:位于快速开始模块的一些基本概念简单介绍了使用Keras前需要知道的一些小知 识,新手在使用前应该先阅读本部分的文档。 Keras安装和配置指南,提供了详细的Linux和Windows下Keras的安装和配置步骤。 深度学习与Keras:位于导航栏最下方的该模块翻译了来自Keras作者博客keras.io和其他Keras相关 博客的文章,该栏目的文章提供了对深度学习的理解和大量使用Keras的例子,您也可以向这个栏 目投稿。 所有的文章均在醒目位置标志标明来源与作者,本文档对该栏目文章的原文不具有任何处 置权。如您仍觉不妥,请联系本人(moyan_work@foxmail.com)删除。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值