- 博客(4)
- 收藏
- 关注
原创 为什么L1惩罚L2惩罚更容易得到稀疏解
在优化问题中,为什么L1惩罚L2惩罚更容易得到稀疏解L1_11惩罚与L2_22惩罚是什么下面从3个角度解释为什么L1惩罚L2惩罚更容易得到稀疏解最优化问题的角度梯度的角度L1_11惩罚与L2_22惩罚是什么L1_11惩罚与L2_22惩罚都是对模型进行惩罚,防止因模型参数过于复杂而导致过拟合。特别的,在线性模型中,加L1_11惩罚的模型称为岭回归,加L2_22惩罚的模型称为las...
2019-12-10 20:32:25
1122
原创 机器学习中的核方法
首先介绍一个定理 一个复杂的模式分类问题,在高维空间中线性可分的概率比在低微空间中更大。举一个例子 二维空间中有4个点{(1, 1), (1, -1), (-1, 1), (-1, -1)},其中{(1, 1), (-1, -1)}是一类,{(-1, 1), (1, -1)}是一类,在二维...
2019-05-05 21:07:35
1269
原创 R中在函数内部定义全局变量
R定义全局变量R语言中,定义全局变量的方法为:a<<-1。在函数内部定义的变量是不会在Global Environment出现的,例如:sigmoid<-function(x){ a = 1 return(1/(1+exp(-x)))}中变量a是不会出现在全局环境中的,> print(a)Error in print(a) : object...
2019-01-23 19:02:33
11897
原创 多分类逻辑回归与softmax回归
多分类logistic回归与softmax回归的区别二分类logistic回归及其优化算法多分类logistic回归softmax回归R软件求解二分类logistic回归及其优化算法设yyy是0-1型变量,x1x_1x1,x2x_2x2,…\dots…,xpx_pxp是与yyy相关的确定性变量,nnn组观测数据为(xi1,xi2,…,xip;yix_{i1},x_{i2},\dots,x...
2019-01-23 18:36:25
1154
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人