[tensorflow2笔记九] 使用keras复现经典卷积网络LeNet、AlexNet、VGGNet、InceptionNet、ResNet

1. LeNet

LeNet卷积神经网络LeCun在1998年提出,卷积网络的开篇之作。通过共享卷积核减少了网络参数

LeNet一共有5层网络,两个卷积计算层,3个全连接层。如图C1,C3,C5,F6,Output

在这里插入图片描述
代码实现:

class LeNet(Model):
    def __init__(self):
        super(LeNet, self).__init__()
        self.c1 = Conv2D(filters=6, kernel_size=(5, 5), activation='sigmoid')
        self.p1 = MaxPool2D(pool_size=(2, 2), strides=2)

        self.c2 = Conv2D(filters=16, kernel_size=(5, 5), activation='sigmoid')
        self.p2 = MaxPool2D(pool_size=(2, 2), strides=2)

        self.flatten = Flatten()                            # 将来自卷积层的数据拉直
        self.f1 = Dense(120, activation='sigmoid')
        self.f2 = Dense(84, activation='sigmoid')
        self.f3 = Dense(10, activation='softmax')

2. AlexNet

AlexNet诞生于2012年,Hinton的代表作之一,当年ImageNet竞赛的冠军。

AlexNet使用relu激活函数,提升了训练速度;使用Dropout缓解了过拟合。

共有8层,前5层是卷积层,后3层是全连接层。

在这里插入图片描述
代码实现:

class AlexNet(Model):
    def __init__(self):
        super(AlexNet, self).__init__()
        self.c1 = Conv2D(filters=96, kernel_size=(3, 3))     
        self.b1 = BatchNorma
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值