
机器学习实战
Shiyang_
这个作者很懒,什么都没留下…
展开
-
分类变量回归——Probit和Logit(附代码)
分类变量回归——Probit和Logit为什么不是普通线性回归?什么是Link函数?如何实现(statsmodels&sklearn)?statsmodels(统计学分析场景推荐)ProbitLogitMNLogit(Multinormal)sklearn(机器学习场景推荐)为什么不是普通线性回归?使用普通线性回归技术,我们必须确保回归技术对于研究问题的适用性,才能相信回归结果是可靠的。识别回归技术的适用性,我们需要对回归分析进行诊断,诊断内容是线性回归最基本的六个假设是否成立,即误差项是一原创 2020-06-11 14:07:15 · 20965 阅读 · 2 评论 -
机器学习算法——SVM简单易懂应用实战
机器学习算法——SVM简单易懂应用实战SVM(Support Vector Machine)学习资料总结实战应用导入工具数据展示将数据转化为数值型使用Sklearn的API绘制结果的混淆矩阵测试在不同的C下的准确率变化测试在不同的Gamma下的准确率变化SVM(Support Vector Machine)学习资料总结支持向量机(SVM)的分析及python实现机器学习实战(六)——支持向量机ML支持向量机(SVM)从入门到放弃再到掌握MIT的SVM教程实战应用导入工具import pa原创 2020-06-06 12:22:16 · 1954 阅读 · 0 评论 -
关联规则挖掘——Apriori及其优化(Python实现)
这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Mar原创 2020-05-28 13:55:56 · 6059 阅读 · 7 评论 -
机器学习算法——使用Adaboost进行分类性能提升
AdaBoost实战AdaBoost原理Ensemble Learning(集成学习)AdaBoost工作机制分类器实现准备工作基本接口调用更换元分类器确定元分类器数量确定学习率使用鸢尾花数据集检验AdaBoost原理Ensemble Learning(集成学习)集成学习是指集合多个弱分类器以形成一个集成的强分类器。集成学习的框架可以通过下图来反映也就是说,集成学习是一种集合了多个机器学习模型的“意见”,已完成最后决策的机制。常见的集成学习策略有三种:BaggingBoostingSta原创 2020-05-16 11:20:35 · 2536 阅读 · 1 评论 -
机器学习算法——手动搭建决策树分类器(代码+作图)
决策树分类器实战决策树分类器原理分类器实现使用鸢尾花数据集检验决策树分类器原理分类器实现使用鸢尾花数据集检验原创 2020-05-15 12:26:54 · 2326 阅读 · 2 评论 -
机器学习算法——手动搭建KNN分类器(代码+作图)
KNN分类器实战KNN分类器原理分类器实现使用鸢尾花数据集检验KNN分类器原理令 DDD 为一个包含 nnn 个点 xi∈Rdx_{i}\in R^{d}xi∈Rd 的数据集,其中 DiD_{i}Di 为类标签为 cic_ici 的点的子集,ni=∣Di∣n_{i}=|D_i|ni=∣Di∣。现给定一个测试点 xj∈Rdx_{j}\in R^{d}xj∈Rd以及需要考虑的邻居节点数为 KKK,令 rrr 代表从 xjx_jxj 到它的第 KKK 个最近邻居的距离。根据这个距离我们可以画原创 2020-05-14 11:22:21 · 1342 阅读 · 0 评论 -
机器学习算法——手动搭建朴素贝叶斯分类器(附代码)
朴素贝叶斯分类器实战朴素贝叶斯分类器原理分类器实现使用鸢尾花数据集检验朴素贝叶斯分类器原理(1)X=(x1,x2,⋯ ,xD)X=\left( x_{1},x_{2},\cdots ,x_{D}\right)X=(x1,x2,⋯,xD) 表示含有 DDD 维属性的数据对象。训练集 SSS 含有 kkk 个类别,表示为 Y=(y1,y2,⋯ ,yk)Y=\left( y_{1},y_{2},\cdots ,y_{k}\right)Y=(y1,y2,⋯,yk)。(2)已知待分类数据对象Ω预测Ω原创 2020-05-12 12:49:53 · 2969 阅读 · 0 评论