Dropout、高斯Dropout、均匀分布Dropout(Uout)

Dropout可以用于解决过拟合,但是dropout和batchnorm一起使用将会导致性能下降,原因是方差,最基础的论文为https://arxiv.org/pdf/1801.05134.pdf。网上的讲解也都是围绕这篇文章。本文记录构建均匀分布Dropout的相关知识,以作备用。

Dropout原理及实现

Dropout的本质通过在学习过程中随机删除神经元,从而每一次都让不同的模型进行学习。比如,以概率 p=0.6 随机将神经元置0,就相当于在10个神经元选4个神经元输出(4个神经元在工作,另外6神经元置0)。一般取0.5效果最佳,小模型下可以再小一些,如0.3。

代码实现

在pytorch中可以使用nn.Dropout(p=0.5)实现,和普通的nn.Linear等层用法一致。

也可以手动写一个

class Dropout(nn.Module):
    def __init__(self, p=0.5):
        super(Dropout, self).__init__()
        if p <= 0 or p >= 1:
            raise Exception("p value should accomplish 0 < p < 1")
        self.p = p
        self.kp = 1 - p
        
    def forward(self, x):
        if self.training:
            mask = (torch.rand_like(x) < self.kp)
            return x * mask / self.kp
        else:
            return x

注释:p是丢弃概率,kp是保留概率。self.training在model.train()下是True,在eval()下是False。torch.rand_like是生成和x相同尺寸的张量,取值在[0,1)内均匀分布。最后除了kp是为了保证train和test下的期望值一致,详细解释可见15 - Dropout的原理及其在TF/PyTorch/Numpy的源码实现_取个名字真难呐的博客-优快云博客_numpy实现dropout

高斯Dropout

这是Dropout的一种变形,写它的目的是方便理解Uout

普通Dropout可以理解为服从的是伯努利分布,现在把它换成高斯分布得到的就是高斯dropout,原理详情可参考深度学习-Dropout详解_Tc.小浩的博客-优快云博客_dropout

代码参考GaussianDropout implementation - #4 by tom - PyTorch Forums

列出了代码的变化过程,讨论的内容也包含了相应的解释,最终的结果如下:

class GaussianDropout(nn.Module):
    def __init__(self, p=0.5):
        super(GaussianDropout, self).__init__()
        if p <= 0 or p >= 1:
            raise Exception("p value should accomplish 0 < p < 1")
        self.p = p
        
    def forward(self, x):
        if self.training:
            stddev = (self.p / (1.0 - self.p))**0.5
            epsilon = torch.randn_like(x) * stddev
            return x * epsilon
        else:
            return x

Uout

原理见上面论文连接里 Change Dropout into a more variance-stable form 小结

代码为自己总结,可能存在问题

class Uout(nn.Module):
    def __init__(self, p=0.1):
        super(Uout, self).__init__()
        self.beta = p
        
    def forward(self, x):
        if self.training:
            epsilon = (torch.rand_like(x) - 0.5) * 2 * self.beta
            epsilon = epsilon + 1
            return x * epsilon
        else:
            return x
### 关于面包板电源模块 MB102 的 USB 供电规格及兼容性 #### 1. **MB102 基本功能** 面包板电源模块 MB102 是一种常见的实验工具,主要用于为基于面包板的小型电子项目提供稳定的电压输出。它通常具有两路独立的稳压输出:一路为 5V 和另一路可调电压(一般范围为 3V 至 12V)。这种设计使得它可以满足多种芯片和传感器的不同工作电压需求。 #### 2. **USB 供电方式** MB102 支持通过 USB 接口供电,输入电压通常是标准的 5V DC[^1]。由于其内部集成了 LM7805 稳压器以及可调节电位器控制的直流-直流变换电路,因此即使输入来自电脑或其他低功率 USB 设备,也能稳定地向负载供应电力。不过需要注意的是,如果项目的功耗较高,则可能超出某些 USB 端口的最大电流能力(一般是 500mA),从而引起不稳定现象或者保护机制启动断开连接的情况发生。 #### 3. **兼容性分析** 该型号广泛适用于各种微控制器单元 (MCU),特别是那些像 Wemos D1 R32 这样可以通过杜邦线轻松接入并共享相同逻辑级别的系统[^2]。另外,在提到 Arduino Uno 板时也表明了良好的互操作性,因为两者均采用相似的标准接口定义与电气特性参数设置[^4]: - 对于需要 3.3V 工作环境下的组件来说,只需调整好对应跳线帽位置即可实现精准匹配; - 当涉及到更多外围扩展应用场合下,例如带有多重模拟信号采集任务的情形里,利用 MB102 提供干净无干扰的基础能源供给就显得尤为重要了[^3]。 综上所述,对于打算构建以单片机为核心的原型验证平台而言,选用具备良好声誉记录且易于获取配件支持服务链路上下游资源丰富的品牌产品——如这里讨论过的这款特定类型的配电装置不失为明智之举之一。 ```python # 示例 Python 代码展示如何检测硬件状态 import machine pin = machine.Pin(2, machine.Pin.IN) if pin.value() == 1: print("Power supply is stable.") else: print("Check your connections and power source.") ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值