关于NASAS的论文笔记

这篇博客探讨了一种基于后验分布的One-Shot NAS方法,它解决了传统NAS的优化问题,提高了效率并减少了Fine-tune的需求。通过变分推理和重参数化技巧,该方法能在大型数据集上寻找高性能网络结构,并通过在验证集上的表现选择最佳结构。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

此篇博客来自这篇论文One-Shot Neural Architecture Search Through A Posteriori Distribution Guided Sampling

一.介绍NAS

NAS全称是Neural Architecture Search, 就是神经网络架构搜索。这一思想主要是从迁移学习的方向引伸出来。我主要介绍它的优化问题,在NAS中,解决就是两个问题,一个是权重优化,一个是网络结构的优化。
最原始的NAS优化问题如下
w a ∗ = a r g m i n w a L t ( M ( a , w a ) ) w_a^{*} = argmin_{w_a}L_t(M(a, w_a)) wa=argminwaLt(M(a,wa))
a ∗ = a r g m i n a ∈ G L v ( M ( a , w a ∗ ) ) a^* = argmin_{a\in G}L_v(M(a, w_a^{*})) a=argminaGLv(M(a,wa))
其中G代表的是一些网络预先定义网络结构,比如3x3卷积核等,t代表训练集,v代表验证集, M ( a , w a ) M(a,w_a) M(a,wa)代表网络结构和权重的网络。
结构如下:(图片居中不了抱歉)
NASAS
由于这种结构优化起来很慢,计算复杂度高,因而有了很多改进,近几年就出现one-shot model 可以有效提高优化速度,但存在权重和网络结构的无匹配问题。现在讲讲关于基于后验分布的one-shot model可以有效提高效率并且不需要Fine-tune,利用权重共享就能达到较高性能和准确率,由于以往的NAS很少能适应大型数据集,而这种方法能较好适应。

二. 关于基于后验分布的NAS的思想

NAS的问题是如何从训练集中得到网络并且具有泛化性能,泛化性能我们是通过验证集来进行做的。基于后验分布的NAS思想就是这样,我们就是要从一个训练集中去得到网络结构和权重参数,那我们可以用贝叶斯的方法求解。
p ( φ ∣ X , Y ) = p ( Y ∣ X , φ ) p ( φ ) ∫ φ p ( Y ∣ X , φ ) p(\varphi|X, Y) = \frac{p(Y|X, \varphi)p(\varphi)}{\int_{\varphi}p(Y|X, \varphi)} p(φX,Y)=φp(YX,φ)p(YX,φ)p(φ)
这里的 φ = { φ l , k s } ( \varphi=\{\varphi_{l,k}^s\}( φ={ φl,ks}(这里的 s s

### 关于 Neural Architecture Search (NAS) 的研究论文 Neural Architecture Search (NAS) 是一种自动化的机器学习方法,旨在通过算法设计高效的神经网络结构。以下是关于 NAS 领域的一些重要研究工作及其贡献: #### 1. 经典综述文章 一篇重要的综述文章《A Survey on Neural Architecture Search》由 Martin Wistuba、Ambrish Rawat 和 Tejaswini Pedapati 编写[^1]。该文章全面概述了 NAS 方法的发展历程以及其在不同领域中的应用。 另一篇类似的综述文章名为《Neural Architecture Search: A survey》,它详细描述了 NAS 中的关键组成部分之一——搜索空间的设计原则[^2]。这些文章对于理解 NAS 技术的基础至关重要。 #### 2. 初始探索与开创性工作 - **Zoph et al., 2017**: 这项研究首次提出了利用强化学习来自动化寻找最优 CNN 架构的方法,并取得了超越人类专家设计的结果[^3]。 - **Real et al., 2019**: 提出了基于进化算法的 ENAS(Efficient Neural Architecture Search),显著降低了计算成本的同时保持性能优越性[^4]。 #### 3. 搜索效率改进的研究方向 为了减少传统 NAS 方法所需的大量资源消耗问题,一些后续工作中引入了新的技术手段: - DARTS (Differentiable Architecture Search): 使用连续松弛技巧使得架构参数可以被梯度下降法优化从而极大加速整个过程[^5]; - ProxylessNAS: 实现了一种无需代理模型即可完成高效硬件感知型网络构建的方式[^6]; 以上提到的各种技术和理论共同推动着 NAS 不断向前发展,在实际工业场景下也逐渐展现出巨大潜力价值。 ```python import numpy as np def nas_search_space_example(): """ This function demonstrates an example of defining a simple chain-like search space. In this case, we define layers with different operation types that can be selected during the search process. """ operations = ['conv_3x3', 'sep_conv_3x3', 'max_pool_3x3'] num_layers = 5 # Randomly select one operation per layer to simulate architecture sampling sampled_architecture = [np.random.choice(operations) for _ in range(num_layers)] return sampled_architecture print(nas_search_space_example()) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值