
math
jjw_zyfx
仅当做个人笔记使用
展开
-
L1、L2正则化的理解
看了好多关于L1、L2 正则化的文章,大多讲的比较正规(一堆数学公式),今天我就从自己的理解角度谈谈我对L1、L2正则化的理解1、为啥要谈L1、L2 正则化,因为我发现学机器学习和深度学习都避免不了,人家会说正则化,会用一些正则化优化的策略,并且自己还怎么不懂2、当然学这些避免不了一些基础的公式比如:L1 正则化公式 f(w)=∣x1∣+∣x2∣+∣x3∣+∣x4∣+......f(w) = |x_1|+|x_2|+|x_3|+|x_4| + ...... f(w)=∣x1∣+∣x2∣+∣x3原创 2021-11-08 16:19:00 · 603 阅读 · 0 评论 -
torch 求导时的backward带参和不带参的区别
具体区别看代码import torchx = torch.arange(4.0, requires_grad = True)y = 2*torch.dot(x,x)y.backward()x.gradx.grad.zero_()y = x.sum()y.backward()x.gradx = torch.arange(4.0, requires_grad = True)y = 2*torch.dot(x,x)print('y\n', y) # 说明此时的y是个标量y.bac原创 2021-09-14 18:01:13 · 1142 阅读 · 0 评论 -
卷积中的 填充和步幅
填充公式和方法:原创 2021-09-11 11:25:48 · 132 阅读 · 0 评论 -
torch.ones、eye、zeros、zeros_like、rand、max、randint、normal、uniform_、linspace、randperm、T(转置)
import torch# 生成一个指定的tensora = torch.Tensor([[1, 2], [3, 4]])print(a)print(a.type())# 生成一个2行3列的tensora = torch.Tensor(2, 3)print('Tensor', a)print(a.type())# 生成3行3列的全1 的tensora = torch.ones(3, 3)print('ones', a)print(a.type())# 对角线是1其他全0a原创 2021-08-20 16:16:02 · 994 阅读 · 0 评论 -
torch.sum,prod,max,min,argmax,argmin,std,var,median,mode,histc,bincount
import torcha = torch.rand(2, 2)print('a\n', a)print('求平均\n', torch.mean(a))print('求和\n', torch.sum(a))print('求所有元素相乘\n', torch.prod(a))print('-'*50)print('指定维度')print('a\n', a)print('求每一列的平均值\n', torch.mean(a, dim=0))print('求每一列的和\n', torch.s..原创 2021-08-21 11:30:32 · 1145 阅读 · 0 评论 -
阶乘:math.gamma
math原创 2021-08-31 15:14:39 · 754 阅读 · 0 评论 -
np.power的使用
power指数次方原创 2021-08-31 15:03:15 · 315 阅读 · 0 评论 -
常用Relu、sigmoid、tanh激活函数
ReLU激活函数图形sigmoid图形tanh图形原创 2021-08-30 20:32:22 · 170 阅读 · 0 评论 -
tensor.dist、norm 范数运算
0 范数:当前向量中的元素之和1 范数:对应向量元素只差的绝对值之和2 范数: 元素的平方和再开方p 范数: 元素的绝对值的P次方之和再开P次方核范数:矩阵的奇异值(在参考参考别的资料)通过dist来计算向量与向量之间的距离度量norm 是针对一个向量或者一个矩阵去计算范数 而 dist是用来衡量两个向量或者矩阵之间的距离import torcha = torch.rand(2, 1)b = torch.rand(2, 1)print(a, '\n', b)print(torch.原创 2021-08-21 12:55:50 · 5797 阅读 · 0 评论 -
矩阵求导数
总结下来就是对X求导如果X是向量则结果需要转置一下原创 2021-08-25 13:58:09 · 342 阅读 · 0 评论