kereas里的各种层意义

1、其中在融合residual跟separable特征图的时候需要融合,其使用到的方法就是kereas里的layers里的add跟Add方法,其文档地址为:http://keras-cn.readthedocs.io/en/latest/layers/merge/

Add

keras.layers.Add()

添加输入列表的图层。该层接收一个相同shape列表张量,并返回它们的和,shape不变。

Example

import keras

input1 = keras.layers.Input(shape=(16,))
x1 = keras.layers.Dense(8, activation='relu')(input1)
input2 = keras.layers.Input(shape=(32,))
x2 = keras.layers.Dense(8, activation='relu')(input2)
added = keras.layers.Add()([x1, x2])  # equivalent to added = keras.layers.add([x1, x2])

out = keras.layers.Dense(4)(added)
model = keras.models.Model(inputs=[input1, input2], outputs=out)

其中在自己构建的网络特征融合时使用的代码如下:

# module 2  为了后面的网络特征融合,这里必须保证输入图像的shape大小是相同的,下面就是很巧妙的构建相同的shape
#这里的残差网络使用了一次strides,即网络特征图只减小了一次
residual = Conv2D(32, (1, 1), strides=(2, 2),
                  padding='same', use_bias=False)(x)
residual = BatchNormalization()(residual)

# 这里的可分离网络也使用了一次strides,其在maxPooling2D函数处,然后其他的使用了padding="same",不改变网络大小
x = SeparableConv2D(32, (3, 3), padding='same',
                    kernel_regularizer=regularization,
                    use_bias=False)(x)
x = BatchNormalization()(x)
x = Activation('relu')(x)
x = SeparableConv2D(32, (3, 3), padding='same',
                    kernel_regularizer=regularization,
                    use_bias=False)(x)
x = BatchNormalization()(x)
x = MaxPooling2D((3, 3), strides=(2, 2), padding='same')(x)
# 这里进行网络特征融合,
# x=layers.Add()([x,residual])
x = layers.add([x, residual])
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值