EfficientNetv2测试

该博客介绍了EfficientNetv2的TensorRT整合测试,展示了不同模型尺寸和batch-size下的性能表现。在1060显卡上,224 batch支持10,而112 batch支持40,两者呈反向线性关系。文中提供了TensorFlow实现的EfficientNetv2模型参数,并给出了两个GitHub资源链接供参考。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 

https://github.com/Wulingtian/EfficientNetv2_TensorRT_int8/blob/master/effnetv2.py

 

测试代码:

if __name__ == '__main__':

    import os
    import time

    model=EfficientNet(5)
    model.cuda()
    model.eval()
    model_path = "dicenet.pth"
    torch.save(model.state_dict(), model_path)

    fsize = os.path.getsize(model_path)
    fsize = fsize / float(1024 * 1024)

    print(f"model size {round(fsize, 2)} m")

    size=224
    input = torch.rand(10, 3, size, size).cuda()
    for i in range(15):
        t1 = time.time()
        loc = model(input)

        cnt = time.time() - t1
        print(cnt, loc.size())</
### EfficientNetV2 模型介绍 EfficientNetV2 是由 Google Research, Brain Team 发布于 2021 年 ICML 的一篇论文所提出的模型,该模型旨在通过结合神经架构搜索 (NAS) 和缩放技术来提升训练速度并提高参数效率[^1]。相较于前代 EfficientNetV1,EfficientNetV2 不仅显著加快了训练过程,而且减少了约 6.8 倍的模型大小。 #### 主要改进点 - **新的卷积层设计**:引入了 Fused-MBConv 层,在某些情况下可以替代传统的 MBConv 卷积层,从而进一步提升了计算资源利用率。 - **渐进学习策略**:采用了一种称为 Progressive Learning 渐进学习的方法,允许更高效地利用数据集中的信息来进行训练[^5]。 - **增强版 NAS 搜索空间**:通过对原有搜索空间进行扩展和优化,使得找到性能更好的网络结构成为可能。 ### 使用方法概述 为了方便开发者快速上手使用 EfficientNetV2 进行图像分类任务或其他计算机视觉应用开发工作,下面给出一个简单的 Python 示例代码片段用于加载预训练权重版本的 EfficientNetV2-S 小尺寸变体: ```python import tensorflow as tf from tensorflow.keras.applications import EfficientNetV2S # 加载带有 ImageNet 预训练权值的小号 EfficientNetV2 模型 model = EfficientNetV2S(weights='imagenet') # 定义输入图片张量形状为(1, 224, 224, 3),即单通道RGB彩色图象 input_image = tf.random.uniform((1, 224, 224, 3)) # 获取预测结果 predictions = model.predict(input_image) print(predictions.shape) ``` 此段代码展示了如何轻松导入 TensorFlow 中已实现好的 EfficientNetV2 架构,并对其执行基本的操作如初始化、设置预训练权重以及完成一次正向传播得到输出特征向量等操作。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

AI算法网奇

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值