
losses
文章平均质量分 84
氵文大师
我年华虚度,空有一身疲倦
展开
-
L2权重衰减就是L2正则化 的 代码实现
有点儿跟不上潮流了,我还以以为这个权重衰减是每次迭代给权重乘以一个。,让他进行衰减呢(这样操作也衰减的太快了吧,显然不是)本文以Paddle为例,torch操作也差不多。我在5年前管这个限制参数过大的东西叫。都在loss后边加一个参数的。对于一个可训练的参数,如果在。中定义了正则化,那么会忽略。然而实际上和正则化是一个东西。范数,当成损失函数进行优化。,手动用权重的范数来做一下。原创 2023-03-28 17:28:36 · 602 阅读 · 0 评论 -
[loss盘点] paddle sigmoid_focal_loss 做了什么操作
.原创 2023-01-29 01:31:20 · 822 阅读 · 0 评论 -
loss盘点: asl loss (Asymmetric Loss) 代码解析详细版
.原创 2023-01-05 14:56:39 · 2876 阅读 · 2 评论 -
loss盘点: BCE loss —— binary_cross_entropy
.原创 2023-01-05 11:01:38 · 703 阅读 · 0 评论 -
loss盘点: BCE loss —— binary_cross_entropy_with_logits
.原创 2023-01-05 00:05:33 · 1094 阅读 · 0 评论