
机器学习
凌摩绛霄
这个作者很懒,什么都没留下…
展开
-
线性回归
引例: 数据:工资和年龄(2个特征) 目标:预测银行会贷款给我多少钱(标签) 考虑:工资和年龄都会影响最终银行的结果,那么它们各自有多大的影响呢?(参数) 回归:通过你的数据最终预测出一个值 (分类:最终的到的是一个类别。比如说银行借还是不借你贷款) ===》对于2维数据,就是找到一条最好的线对数据进行拟合 假设1是年龄的参数,2是工资的参数 拟合的平面:h(x)...原创 2019-02-25 11:10:51 · 280 阅读 · 1 评论 -
梯度下降
引入:当我们得到了一个目标函数后,如何进行求解? 直接求解?(并不一定可解,线性回归可以当做是一个特例) 常规套路:机器学习的套路就是交给机器一堆数据,然后告诉它什么样的学习方式是对的(目标函数),然后让它朝着这个方向去做 如何优化:一口吃不成胖子,我们要静悄悄的一步步的完成迭代(每次优化一点点,累积起来就是个大成绩了) ...原创 2019-02-25 11:31:22 · 167 阅读 · 0 评论 -
逻辑回归
逻辑回归: 目的:分类还是回归?经典的二分类算法! 机器学习算法选择:先逻辑回归再用复杂的,能简单还是用简单的 逻辑回归的决策边界:可以是非线性的 sigmoid函数 公式:g(z)=1/(1+exp(-z)) 自变量取值为任意实数,值域 [0,1] 解释:将任意的输入映射到了[0,1]区间,我们在线性回归中得到一个预测值,再将该值映射到sigmoid函数中, 这样就完成...原创 2019-02-25 15:36:15 · 186 阅读 · 0 评论 -
决策树
决策树:从根节点开始一步步走到叶子结点(决策) 所有的数据最终都会落到叶子结点,既可以做分类也可以做回归 树的组成: 根节点:第一个选择点 非叶子结点与分支:中间过程 叶子结点:最终的决策结果 节点:增加节点相当于在数据中切一刀,那么节点越多越好吗? 决策树的训练与测试: 1.训练阶段:从给定的训练集构造出来一棵树(从根节点开始选择特征,如何进行特征切分) ...原创 2019-02-25 20:49:23 · 277 阅读 · 0 评论