Tensorflow2 Model继承搭建模型

Keras 有两个重要的概念: 模型(Model) 和 层(Layer) 。层将各种计算流程和变量进行了封装(例如基本的全连接层,CNN 的卷积层、池化层等),而模型则将各种层进行组织和连接,并封装成一个整体,描述了如何将输入数据通过各种层以及运算而得到输出。在需要模型调用的时候,使用 y_pred = model(X) 的形式即可.

Keras 模型以类的形式呈现,我们可以通过继承 tf.keras.Model 这个 Python 类来定义自己的模型。在继承类中,我们需要重写 init() (构造函数,初始化)和 call(input) (模型调用)两个方法,同时也可以根据需要增加自定义的方法。

class MyModel(tf.keras.Model):
    def __init__(self):
        super().__init__()     # Python 2 下使用 super(MyModel, self).__init__()
        # 此处添加初始化代码(包含 call 方法中会用到的层),例如
        # self.layer1 = tf.keras.layers.BuiltInLayer(...)
        # self.layer2 = MyCustomLayer(...)

    def call(self, input):
        # 此处添加模型调用的代码(处理输入并返回输出),例如
        # x = self.layer1(input)
        # output = self.layer2(x)
        return output

    # 还可以添加自定义的方法

继承 tf.keras.Model 后,我们同时可以使用父类的若干方法和属性,例如在实例化类 model = Model() 后,可以通过 model.variables 这一属性直接获得模型中的所有变量,免去我们一个个显式指定变量的麻烦。

线性回归

import tensorflow as tf


#生成一些数据
x = tf.range(10)
y = tf.range(10,)

x = tf.cast(x, dtype=tf.float32)  #改变类型为float
x = tf.reshape(x, [x.shape[0], 1])   #增加一个维度,使其为二维tensor

y = 2 * tf.cast(y, dtype=tf.float32) + tf.random.normal([10,])  #增加随机扰动
y = tf.reshape(y, [y.shape[0], 1])  #转为二维

optimizer = tf.keras.optimizers.Adam(lr=0.01)  #定义优化器


#创建model
class Model(tf.keras.Model):
    def __init__(self):
        super().__init__()
		#自定义层
        self.layer1 = tf.keras.layers.Dense(1, bias_initializer=tf.zeros_initializer())


    def call(self, input):
    	#自定义模型逻辑
        x = self.layer1(input)

        return x


model = Model()  #实例化这个class

for _ in tf.range(2000):
    with tf.GradientTape() as tape:
        pred = model(x)   #直接使用model(x)即可
        L = tf.reduce_mean(tf.square(pred - y))

    L_gradx = tape.gradient(L, model.variables)   #model.variables获得模型所有参数
    optimizer.apply_gradients(grads_and_vars=zip(L_gradx, model.variables))

    tf.print([L])

UNet 是一种用于图像分割的半监督卷积神经网络结构,常用于医学图像分割等领域。下面是一个简单的 TensorFlow UNet 网络模型搭建过程。 首先,我们需要导入所需的 TensorFlow 库: ```python import tensorflow as tf from tensorflow import keras from tensorflow.keras import layers ``` 然后,我们定义一个 UNet 类,继承keras.Model 类,并实现其 call 方法: ```python class UNet(keras.Model): def __init__(self): super(UNet, self).__init__() # 定义下采样部分 self.down1 = downsample(64, 3) self.down2 = downsample(128, 3) self.down3 = downsample(256, 3) self.down4 = downsample(512, 3) # 定义上采样部分 self.up1 = upsample(256, 3) self.up2 = upsample(128, 3) self.up3 = upsample(64, 3) # 定义输出层 self.output_layer = layers.Conv2D(1, 1, activation='sigmoid', padding='same') def call(self, inputs): # 定义前向传播过程 x1 = self.down1(inputs) x2 = self.down2(x1) x3 = self.down3(x2) x4 = self.down4(x3) x = self.up1(x4, x3) x = self.up2(x, x2) x = self.up3(x, x1) output = self.output_layer(x) return output ``` 其中,我们定义了两个辅助函数 downsample 和 upsample,用于构建下采样和上采样部分: ```python # 下采样部分 def downsample(filters, size, apply_batchnorm=True): initializer = tf.random_normal_initializer(0., 0.02) result = keras.Sequential() result.add(layers.Conv2D(filters, size, strides=2, padding='same', kernel_initializer=initializer, use_bias=False)) if apply_batchnorm: result.add(layers.BatchNormalization()) result.add(layers.LeakyReLU()) return result # 上采样部分 def upsample(filters, size, apply_dropout=False): initializer = tf.random_normal_initializer(0., 0.02) result = keras.Sequential() result.add(layers.Conv2DTranspose(filters, size, strides=2, padding='same', kernel_initializer=initializer, use_bias=False)) result.add(layers.BatchNormalization()) if apply_dropout: result.add(layers.Dropout(0.5)) result.add(layers.ReLU()) return result ``` 最后,我们可以实例化 UNet 类并编译模型: ```python model = UNet() model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy']) ``` 现在,我们就成功搭建了一个简单的 TensorFlow UNet 网络模型
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值