
机器学习
pikapikay
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
机器学习 吴恩达 笔记 (1)
多元线性回归主要是对于线性回归的深化 针对每一次迭代中的第j的参数,将前一次的该参数值减去步长a*代价函数对于此参数的导数,注意多参数时需要先完成本次迭代即更新完n个参数之后才能进行下一次更新,不能将刚更新的参数带入到后更新的参数更新过程中去。 坐标系理解就是在此参数的维度上不断靠近最低点,每次都减去步长乘斜率,而随着迭代,斜率会越来越小最终降为0,到达此参数维度上的最低点,而...原创 2018-09-14 10:10:31 · 183 阅读 · 0 评论 -
机器学习实战-简单决策树编写
#!/user/bin/env python# !-*-coding:utf-8 -*-# !Time :2018/9/28 4:12 PM# !Author : hyCong# !@File : .pyfrom math import logimport operatorimport treePlotter# 计算熵def calcShannonEnt(dataSet):...原创 2018-10-01 10:19:05 · 207 阅读 · 0 评论 -
梯度下降技巧2
一. 对步长的选取需要采取一定的策略二. 多项式回归时对于特征的选择,可以采用复合的方式,尽可能的是假设函数与数据拟合,并且注意xi在使用不同的函数复合之后其范围的变化,如果各个参数的范围相差较大需要使用规格化缩放。 三. 对于多元线性回归中梯度下降和正规方程法(最小二乘法)的优缺点比较 四. 当使用最小二乘法的时候可能会出现xtx不可逆的情况,若不可逆,则会出现复...原创 2018-09-21 17:52:30 · 480 阅读 · 0 评论 -
bp神经网络python实现(关于公式的推导之后给出)
#!/user/bin/env python# !-*-coding:utf-8 -*-# !Time :2018/10/7 7:56 PM# !Author : hyCong# !@File : .pyimport sysreload(sys)sys.setdefaultencoding('utf-8')from sklearn.datasets import load_di...原创 2018-10-08 19:50:30 · 356 阅读 · 1 评论