通过tensorflow.python.keras.layers 调用BatchNormalization时,会出现过拟合情况,注释掉BatchNormalization层后好了,神奇…探索中后面补答案
补坑,因为是第一次运用BatchNormalization,忽略掉了batchsize 的大小会影响到BatchNormalization。
通过tensorflow.python.keras.layers 调用BatchNormalization时,会出现过拟合情况,注释掉BatchNormalization层后好了,神奇…探索中后面补答案
补坑,因为是第一次运用BatchNormalization,忽略掉了batchsize 的大小会影响到BatchNormalization。