block学习(一)

1.定义block的两种方式:

  -直接定义:

    //@property (nonatomic,copy) void (^callBack)(NSInteger index,id info);

  -type定义,重用

    typedef void (^callBack)(NSInteger index,id info);

    @property (nonatomic,strong) callBack callBack;

2.代码中使用:  

    if (_callBack) {

        _callBack(centerImageIndex,_imageModels[centerImageIndex]);

    }

转载于:https://www.cnblogs.com/luanmage/p/4623545.html

### RMT Block 的定义及其在深度学习中的作用 随机矩阵理论 (Random Matrix Theory, RMT)种研究大尺寸随机矩阵特性的数学工具,在物理学、统计学以及机器学习领域有着广泛的应用。RMT Block 可以被理解为基于随机矩阵理论设计的种模块化结构,用于改进神经网络架构的性能或分析其特性。 #### 随机矩阵理论的核心思想 随机矩阵理论通过分析权重分布的谱特性来揭示深层神经网络的行为模式。这种技术能够帮助优化训练过程并提升模型泛化能力[^1]。具体而言,RMT 提供了种框架,可以用来评估梯度下降过程中损失函数的变化趋势,从而指导超参数的选择和初始化策略的设计。 #### 应用场景之:正则化与稳定性增强 利用 RMT 原理构建的特殊层——即所谓的 **RMT Blocks**,可以在前向传播阶段引入特定形式的噪声或者调整激活值之间的相互关系,以此达到抑制过拟合的效果。例如,在卷积神经网络(CNNs) 中加入此类组件后,不仅有助于缓解梯度消失/爆炸现象,还能促进特征图之间更加均匀的信息流动[^2]。 #### 实现方式举例说明 下面给出段伪代码展示如何将简单的 RMT 思想融入到标准全连接层当中: ```python import torch.nn as nn from torch.distributions import Normal class RMTPreconditionedLinear(nn.Module): def __init__(self, input_dim, output_dim, noise_scale=0.1): super(RMTPreconditionedLinear, self).__init__() self.linear = nn.Linear(input_dim, output_dim) self.noise_dist = Normal(0., noise_scale) def forward(self, x): weight_noise = self.noise_dist.sample(self.linear.weight.size()).to(x.device) noisy_weights = self.linear.weight + weight_noise return nn.functional.linear(x, noisy_weights, self.linear.bias) ``` 上述实现展示了怎样通过对传统线性变换施加额外扰动项的方式模拟出类似于 RMT 所描述的现象[^3]。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值