正则\1\2和\\1的理解

正则表达式中
‘\1’ 匹配的是 字符 ‘\1’ 。 (因为 ‘\’ 匹配字符 ‘\’ )
‘\2’ 匹配的是 字符 ‘\2’

单独斜杠的 \1 , \2 就是反向引用了。
‘\1’ 匹配的是 所获取的第1个()匹配的引用。例如,’(\d)\1’ 匹配两个连续数字字符。如33aa 中的33
‘\2’ 匹配的是 所获取的第2个()匹配的引用。
例如,’(\d)(a)\1’ 匹配第一是数字第二是字符a,第三\1必须匹配第一个一样的数字重复一次,也就是被引用一次。如9a9 被匹配,但9a8不会被匹配,因为第三位的\1必须是9才可以,

‘(\d)(a)\2’ 匹配第一个是一个数字,第二个是a,第三个\2必须是第二组()中匹配一样的,如,8aa被匹配,但8ab,7a7不会被匹配,第三位必须是第二组字符的复制版,也是就引用第二组正则的匹配内容。

以此类推

### L1正则化与L2正则化的定义 L1正则L2正则化是机器学习中常用的两种正则化方法,用于防止模型过拟合并提升泛化能力。L1正则化基于1-范数的概念,在损失函数中加入权重绝对值之作为惩罚项[^1]。其数学形式如下: ```python Loss_L1 = Loss_original + λ * Σ|w_i| ``` 其中 `λ` 是正则化参数,控制正则化强度;`Σ|w_i|` 表示权重的绝对值之。 相比之下,L2正则化基于2-范数的概念,通过在损失函数中增加权重平方的形式来实现正则化[^3]。具体表达式为: ```python Loss_L2 = Loss_original + λ/2 * Σ(w_i^2) ``` 这里的 `λ/2` 同样表示正则化强度,而 `Σ(w_i^2)` 则代表权重平方的总。 --- ### 正则化的作用 无论是L1还是L2正则化,它们的核心作用都是通过对模型权重施加约束,从而降低复杂度并避免过拟合现象的发生。然而,两者的实际效果存在显著差异。 #### L1正则化的特点 L1正则化的一个突出特点是能够生成稀疏解,这意味着它会将部分不重要的特征对应的权重压缩至零[^2]。这种特性使其非常适合于高维数据中的特征选择任务,因为它能有效剔除无关紧要的变量,进而简化模型结构并增强解释性。 此外,由于L1正则化倾向于忽略噪声较大的样本点,因此具备较好的抗噪性能。 #### L2正则化的优势 不同于L1正则化追求稀疏性的策略,L2正则化更注重平滑分布权重值,使各特征的重要性更加均衡。这种方法不会直接消除任何单一特征的影响,而是通过缩小整体权重规模达到抑制过拟合的目的。 值得注意的是,随着现代深度学习技术的发展,L2正则化因其良好的数值稳定性高效优化表现,逐渐成为主流应用之一。 --- ### 两者的主要区别 以下是L1正则化与L2正则化之间几个关键方面的对比总结: 1. **目标导向** - L1正则化旨在构建稀疏解决方案,适合处理冗余特征较多的数据集。 - L2正则化致力于均匀分配权重资源,适用于需要保留全部输入信息的情形。 2. **几何意义** - 在参数空间内,L1正则化对应着菱形轮廓线,容易触及坐标轴形成零权重组件。 - 而L2正则化呈现圆形边界形状,促使所有方向上的分量均有所缩减而非完全消失。 3. **适用场景** - 当面临大量潜在无用属性时,优先考虑采用L1正则化来进行内置筛选操作。 - 若希望维持原始维度不变同时改善稳定性,则推荐运用L2正则化手段。 4. **计算成本** - 实现过程中发现,相较于单纯依赖梯度下降算法更新规则而言,引入L1正则化可能带来额外运算负担因需频繁判断阈值条件。 - 反观之下,L2正则化通常仅涉及简单的乘法累加过程因而相对简便快捷一些。 --- ### 结论 综上所述,尽管二者同属正则化范畴且共享预防过度匹配这一共同使命,但在机制设计、应用场景等方面各有侧重。合理选取恰当类型的正则化措施对于最终建模成果至关重要。 ---
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

yijiliangfang

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值