
神经网络
文章平均质量分 84
低吟浅笑
平庸并不可耻,只是你暂时还不够出色。 无知也并不可耻,只是你暂时还不够博学。 肤浅也并不可耻,只是你暂时还不够深刻。 我们只为自己而活。
展开
-
MDPI期刊汇总(AI方向)
本blog统计了计算机和工程领域的期刊,常见分区包括三种,中科院分区,JCR分区,CiteScore分区,下面分别介绍这三种分区的区别:1. 中科院分区中科院分区是中国科学院发布的期刊评价体系,涵盖了SCI期刊。它根据期刊的影响因子和学术声誉将期刊分为一区到四区。这种分区特别在中国科研界使用广泛,是国内科研评价和项目申请中的常用标准。中科院分区主要参考的是SCI期刊,但也可能包括其他重要的国际期刊。2. JCR分区。原创 2024-06-22 11:26:07 · 9181 阅读 · 0 评论 -
神经网络模型的量化简介(工程版)
按量化参数分类,可分为静态量化和动态量化,区别这两种方式主要是是否提供校准集,动态量化更简单,更灵活,但是推理开销较大,会内嵌一些动态参数,特别注意,动态量化对于TensorRT的engine生成较复杂,因为TensorRT不支持DynamicQuantizeLinear操作。按量化时间分类,原创 2024-06-21 11:12:08 · 1764 阅读 · 0 评论 -
EfficientDet: Scalable and Efficient Object Detection
尽管NAS-FPN有很好的性能,但耗费大量时间,生成的要素网络是不规则的,难以解释。本文旨在更直观,更原则的方式优化多尺度特征融合。提出BiFPN,根据直觉:1>如果一个节点只有一个输入边且没有特征融合,那么它对融合不同特征的网络有很少的贡献,简化双向网络(这感觉有点牵强) 2>原始输入和输出节点处于同一级别,添加一条额外的边(类shortcut) 3>将每个双向路径视为一个feature network layer,重复多次以获得high-level feature fusion。原创 2023-10-15 22:35:49 · 1023 阅读 · 0 评论 -
YOLOv4 论文总结
摘要:一些通用功能可以提高网络的性能的,认为包括:Weighted-Residual-connection(WRC) 加权残差连接、Cross-Stage-Partial-connections (CSP) 跨阶段部分连接, Cross mini-Batch Normalization (CmBN) 跨小批量标准化, Self-adversarial-training (SAT) 自对抗训练 and Mish-activation Mish激活。4.修改了最先进的方法,更有效且适合单GPU训练。原创 2023-10-13 13:12:35 · 252 阅读 · 0 评论 -
FPN:Feature Pyramid Networks for Object Detection
Feature Pyramid Networks for Object Detection引用量:6309 CVPR2017 Facebook AI网上很多关于这个文章的介绍,我这基本直接根据文章本身来的,并省略了应用和实验部分,后面有一些附图可以帮助理解。view:当真是开山之祖的感觉,很厉害,不需要多说。可以在各个算法中方便使用, 作为检测网络的Neck层。后续也提出很多变体,可以看EfficientDet。贡献:提出了特征金字塔网络,在检测/分割的多尺...原创 2021-03-08 11:20:38 · 374 阅读 · 0 评论 -
2022年Tesla技术分享
Tesla 2022年技术方案分享原创 2023-01-16 15:07:07 · 1629 阅读 · 0 评论 -
Dropout和BN为什么不能共同使用?
Dropout和BN原创 2022-09-01 16:23:36 · 2364 阅读 · 0 评论 -
神经网络和数据集的思考:数据集越大,性能越好?
一般来说,神经网络和大数据的关系十分复杂,影响因素包括:模型的大小,数据集的大小,计算性能, 还有其他因素, 如:人力、时间等。下面对现有的内容做了一个整理:一、 数据量VS网络性能1.总述在《Revisiting Unreasonable Effectiveness of Data in Deep Learning Era》中,Sun等人将过去10年来的计算机视觉技术取得了重大成功的原因归功于:1>复杂度更高的模型,2>计算性能的提高【参考1,参考2】,3>大规模标签数.原创 2022-04-10 23:09:31 · 19853 阅读 · 4 评论