
论文实验
文章平均质量分 84
深度学习论文中的一些实验
neverayever
这个作者很懒,什么都没留下…
展开
-
EDVR和FastDVD
EDVR和FastDVD原创 2022-08-24 09:05:17 · 556 阅读 · 0 评论 -
PWC光流估计网络
PWC光流估计网络原创 2022-08-24 08:53:39 · 1055 阅读 · 0 评论 -
FTSO: Effective NAS via First Topology Second Operator
FTSO:通过第一步搜拓扑第二搜算子实现有效的NAS,ICLR2021.将算子和架构搜索分离开来也是一种NAS的方向。原创 2022-01-19 14:14:11 · 901 阅读 · 0 评论 -
Single Path One-Shot Neural Architecture Search with Uniform Sampling
均匀采样单路径单次神经网络结构搜索:中心思想是构建一个简化的超网,其中所有的架构都是单一路径,这样权重自适应问题就得到缓解。原创 2022-01-16 15:01:32 · 3334 阅读 · 0 评论 -
SplitSR: An End-to-End Approach to Super-Resolution on Mobile Devices
SplitSR:在移动设备上实现超分辨率的端到端方法,主要提出了SplitSRBlock这个block原创 2022-01-13 15:08:07 · 2487 阅读 · 0 评论 -
Trilevel Neural Architecture Search for Efficient Single Image Super-Resolution
高效单幅图像超分辨率的三层神经架构搜索,网络级,单元级和卷积核级三个级别原创 2022-01-11 15:21:04 · 2121 阅读 · 0 评论 -
RETHINKING ARCHITECTURE SELECTION IN DIFFERENTIABLE NAS
重新思考可微分NAS的结构选择(ICLR2021)原创 2022-01-09 15:40:22 · 802 阅读 · 2 评论 -
DOTS: Decoupling Operation and Topology in Differentiable Architecture Search
将DARTS中的架构搜索和操作搜索解耦,加快搜索速度,提高搜索精度原创 2021-12-30 13:42:25 · 1509 阅读 · 0 评论 -
Achieving on-Mobile Real-Time Super-Resolution with Neural Architecture and Pruning Search
ICCV20201:手机上可以实时推理的超分辨网络,将神经网络架构搜索和神经网络剪枝相结合。原创 2021-12-26 12:47:21 · 2843 阅读 · 0 评论 -
Hierarchical Neural Architecture Search for Single Image Super-Resolution
Hierarchical Neural Architecture Search for Single Image Super-Resolution单幅图像超分辨率的层次神经结构搜索原创 2021-12-24 13:24:43 · 2207 阅读 · 0 评论 -
Accelerating Neural Architecture Search via Proxy Data
Accelerating Neural Architecture Search via Proxy Data利用代理数据加速神经网络结构搜索摘要尽管人们对神经结构搜索(NAS)越来越感兴趣,但NAS的巨大计算成本仍然是研究人员的一大障碍。因此,我们建议使用代理数据来降低NAS的成本,即。E在不牺牲搜索性能的情况下,目标数据的代表子集。尽管数据选择已在各个领域使用,但我们对NAS-BECH1SHOT1提供的NAS算法的现有选择方法的评估表明,这些方法并不总是适用于NAS,因此有必要采.原创 2021-12-22 16:34:42 · 562 阅读 · 0 评论 -
MS-DARTS: Mean-Shift Based Differentiable Architecture Search
MS-DARTS: Mean-Shift Based Differentiable Architecture Search基于均值漂移的可微分结构搜索摘要可微体系结构搜索(DARTS)是一种有效的基于连续松弛的网络体系结构搜索(NAS)方法,搜索成本低。它已经引起了Auto-ML研究的广泛关注,成为NAS研究中最有用的范式之一。尽管DARTS可以比传统NAS方法产生更高的效率,对复杂参数有更好的控制,但在离散连续体系结构时,它经常会遇到稳定性问题,导致体系结构恶化。在dart的最后离散化步骤中,我们原创 2021-12-21 16:44:42 · 994 阅读 · 0 评论 -
2021-08-22
Neuron-level Structured Pruning using Polarization Regularizer基于极化正则化的神经元级结构化剪枝总结 该篇文章是2017年network slimming的改进工作。在network slimming的工作中,利用L1正则化技术让BN层的scale系数趋近于0,然后裁剪“不重要”的channel。然而,这篇文章认为这种做法存在一定问题。L1正则化技术会让所有的scale系数都趋近于0,更理想的做法应该是只减小“不重要”channel的原创 2021-08-22 16:51:51 · 825 阅读 · 3 评论 -
2021-09-03
iDARTS Improving DARTS by Node Normalization and Decorrelation Discretization通过节点归一化和去相关离散化改进dart摘要可微架构搜索(DARTS)使用了网络表示的连续放松,并在gpu天内极大地加速了神经架构搜索(NAS)近数千倍。然而,DARTS的搜索过程不稳定,当训练周期变大时,搜索速度严重下降,限制了它的应用。在本文中,我们认为这种退化问题是由不同节点之间的规范不平衡和各种操作的高度相关输出造成的。然后我们提出了dar原创 2021-09-03 14:07:08 · 572 阅读 · 0 评论 -
2021-08-26
BN-NAS–Neural Architecture Search with Batch NormalizationBN-NAS:带批量归一化的神经架构搜索摘要 为了加速神经架构搜索,我们提出了带批处理归一化的神经架构搜索。BN-NAS可以显著减少NAS中模型训练和评估所需的时间。具体来说,为了快速评估,我们提出了一个基于BN的指标,用于在非常早期的训练阶段预测子网性能。基于BN的指标进一步方便了我们在超网训练时只训练BN参数来提高训练效率。这是基于我们的观察,即不需要训练整个超网,而只训练BN原创 2021-08-26 16:28:49 · 542 阅读 · 0 评论 -
2021-08-31
Evolving Search Space for Neural Architecture Search摘要 神经结构设计的自动化已经成为人类专家梦寐以求的替代方案。为了在搜索空间中找到最优的结构,人们提出了各种搜索方法。当搜索空间变大时,搜索结果可能会有所改善,因为它可能包含更多性能候选。令人惊讶的是,我们观察到扩大搜索空间对现有的NAS方法(如dart、ProxylessNAS和SPOS)是不利的,甚至是有害的。这一违反直觉的现象表明,使现有方法适用于大型搜索空间体制并非易事。然而,这个问题在文原创 2021-08-31 19:05:36 · 904 阅读 · 0 评论 -
2021-08-21
Sanity-Checking Pruning Methods: Random Tickets can Win the Jackpot健全性检查修剪方法:随机门票可以赢得头奖摘要: 网络修剪是一种以最小的性能降级来减少测试时间计算资源需求的方法。剪枝算法的传统智慧建议:(1)剪枝方法利用来自训练数据的信息来寻找好的子网络;(2)修剪网络的架构对于良好的性能至关重要。在本文中,我们对最近的几种非结构化剪枝方法进行了上述信念的健全性检查,令人惊讶地发现:(1)一组旨在寻找随机初始化网络的良好子网络的原创 2021-08-21 19:12:42 · 639 阅读 · 0 评论 -
2021-04-14
Evaluating The Search Phase Neural Architecture Search论文题目:评估神经架构搜索的搜索阶段code: https://github.com/kcyu2014/eval-naspaper:https://arxiv.org/abs/1902.08142摘要NAS的两个阶段:搜索架构空间和验证最佳架构,NAS目前仅根据其在下游任务上的结果进行比较,虽然直观,但未能明确评估他们搜索策略的有效性,本文中,我们建议评估NA...原创 2021-04-14 18:58:42 · 297 阅读 · 0 评论 -
2021-04-05
CVPR2021 RLNAS-Neural Architecture Search with Random Labels目录CVPR2021 RLNAS-Neural Architecture Search with Random Labels零:摘要一:介绍二:相关工作三:方法3.1 基础:SPOS3.2 文中方法:Random Label NAS(RLNAS)四:实验4.1. Search Space and Training Setting4.2. Sear原创 2021-04-05 16:35:09 · 454 阅读 · 1 评论 -
2021-03-06
CVPR2021论文----HourNAS:Extremely Fast Neural Architecture Search Through an Hourglass Lens阅读笔记一:动机建筑的效果往往是从至关重要的几个块开始的二:主要方法深层神经网络从输入到输出的路径中的关键块就像一个沙漏的窄颈,制约着信息流,影响着网络的准确性。其他块占据了网络的主要部分,并决定了整个网络的复杂性,相当于一个沙漏的灯泡。为了在保持高准确性的同时实现极快的网络连接存储,我们建议识别关键..原创 2021-03-06 14:17:39 · 423 阅读 · 2 评论 -
2020-12-20
商汤pysot中四个数据集的处理1.vidscreen -S vid2015cd /home/peng/data/VID2015tar -zxvf imagenet_object_detection_video_train.tar.gz改名ILSVRC----->ILSVRC2015ln -sfb $PWD/ILSVRC2015/Annotations/VID/train/ILSVRC2015_VID_train_0000 ILSVRC2015/Annotations/VID/t原创 2020-12-20 16:18:03 · 576 阅读 · 1 评论 -
2020-11-13
SiamRPN++代码训练ILSVRC 2015-VID数据集处理请参考我的博客:https://blog.youkuaiyun.com/Douzaikongcheng/article/details/109511337SiamRPN++代码:https://github.com/PengBoXiangShang/SiamRPN_plus_plus_PyTorch数据集:ILSVRC 2015-VID训练python train.py --data_dir /home/peng/data/VID_原创 2020-11-13 12:29:54 · 388 阅读 · 0 评论 -
2020-11-05
SiamRPN++代码ILSVRC 2015-VID数据集处理目录1.vim强制退出2.wget: unable to resolve host address解决方法3.Linux服务器ping命令4.linux的rar压缩包解压5.linux防火墙6.imagenet-vid-2015数据集连接:百度网盘7.linux的rar安装8.# 4. Preprocess data.9.fire包源码安装1.vim强制退出保存并退出,wq强制保存强制退出.原创 2020-11-05 14:57:11 · 1198 阅读 · 0 评论 -
2020-10-22
MDNet(Learning Multi-Domain Convolutional Neural Networks for Visual Tracking)的pytorch版本训练训练:首先下载数据集(建议找百度网盘下载,如果去官网下载需要一个一个下载):Vot2013Vot2014Vot2015OTB100Datasets/list/vot-otb.txt这个文件列出了所要使用的58个数据集(Vot2013,Vot2014,Vot2015各一部分),注意文件的命名严格按照.原创 2020-10-22 13:01:31 · 619 阅读 · 0 评论 -
2020-10-18
MDNet(Learning Multi-Domain Convolutional Neural Networks for Visual Tracking)的pytorch版本运行论文地址:https://arxiv.org/abs/1510.07945项目地址:http://cvlab.postech.ac.kr/research/mdnet/pytorch代码地址:https://gitee.com/zk282263802/py-MDNetcd py-MDNetpython trac原创 2020-10-18 21:13:07 · 384 阅读 · 2 评论 -
2020-09-08
DeformableConvolutionsV2 使用技巧1.资料源论文名称:Deformable convnets v2: More deformable, better results论文地址:https://arxiv.org/abs/1811.11168代码地址(pytorch_1.0.0 branch):https://github.com/chengdazhi/Deformable-Convolution-V2-PyTorch/tree/pytorch_1.0.02.如...原创 2020-09-08 17:43:12 · 1771 阅读 · 3 评论