
机器学习
aiblackmaner
这个作者很懒,什么都没留下…
展开
-
决策树
1、决策树基本算法。2、决策树递归返回得三个条件:1,2,3。3、划分选择:1、信息增益基本概念,a:信息熵,b:信息增益。2、增益率。3、基尼指数。4、防止过拟合方法----剪枝,a:预剪枝,b:后剪枝,两种方法得具体操作过程。5、决策树过程中遇到的值问题,a:连续值处理方法--二分法,b:缺失值处理方法。...原创 2019-05-24 20:00:49 · 175 阅读 · 0 评论 -
KMP算法
转:KMP算法讲解https://blog.youkuaiyun.com/LEE18254290736/article/details/77278769转载 2019-05-21 15:55:59 · 105 阅读 · 0 评论 -
sizeof用法汇总
见博客https://blog.youkuaiyun.com/left_coast/article/details/526151851、sizeof2、数组指针和指针数组:https://www.cnblogs.com/tp-16b/p/7860491.html3、数组问题结合函数输入变量名:https://blog.youkuaiyun.com/chen1083376511/article/details/...转载 2019-05-17 16:48:00 · 139 阅读 · 0 评论 -
生成模型和判别模型与LR和SVM的异同
https://blog.youkuaiyun.com/u010358304/article/details/79748153https://www.cnblogs.com/zhizhan/p/5038747.htmlLR和SVM异同比较:同:1、LR和SVM都是分类算法。2、在不考虑核函数的情况下,LR和SVM都是线性分类算法,其分类决策面都是线性的。3、LR和SVM都是监督学习算法...转载 2019-05-30 20:09:10 · 1433 阅读 · 0 评论 -
L0、L1、L2范式对比
https://blog.youkuaiyun.com/zouxy09/article/details/24971995/L2为什么能减轻过拟合风险:L2正则相当于在使模型的参数W每个元素都很小,接近于0,而这样做的之后,也就是使模型相对简单,能适应不同的数据集,也在一定程度上避免了过拟合现象。而为什么参数小就能使模型减轻过拟合风险呢?以线性回归方程生动举例,假若参数较大,那么只要数据稍微偏移一点点,...转载 2019-05-29 20:56:59 · 640 阅读 · 0 评论 -
线性回归总结
一元线性回归的基本假设有1、随机误差项是一个期望值或平均值为0的随机变量;2、对于解释变量的所有观测值,随机误差项有相同的方差;3、随机误差项彼此不相关;4、解释变量是确定性变量,不是随机变量,与随机误差项彼此之间相互独立;5、解释变量之间不存在精确的(完全的)线性关系,即解释变量的样本观测值矩阵是满秩矩阵;6、随机误差项服从正态分布违背基本假设的计量经济学模型还是可以估计的,只...转载 2019-06-18 19:48:40 · 1679 阅读 · 0 评论 -
Latex在线简历制作
方便实用的Latex在线简历制作方法:通过overleaf(https://www.overleaf.com)在线制作Latex简历。1、打开overleaf官网,进入https://www.overleaf.com/articles模板页面,挑选自己喜欢的模板,并open as template进行模板修改。2、将英文模板改为中文版式模板,主要修改两个地方,一是将 \usepackag...原创 2019-06-04 21:16:15 · 1104 阅读 · 0 评论