
机器学习
Saturday66
这个作者很懒,什么都没留下…
展开
-
多变量线性回归
总结多变量线性回归与单变量线性回归很类似,这里以两个特征值为例,注意theta初始化时为(1,3),另外还要进行特征缩放(缩放范围在尽量在(-1,1)之间),让梯度下降尽快的收敛,最简单的方法就是:这里对点以及预测结果进行了绘制,对于更多特征值的预测结果很可能没办法绘制出来,这里只是好奇进行了尝试,看看结果如何.实现import numpy as npimport pandas as pdimport matplotlib.pyplot as plt'''读文件数据'''path =原创 2020-08-25 12:07:40 · 419 阅读 · 0 评论 -
单变量线性回归
前言刚开始学机器学习,小白一个,入门听了吴恩达老师的课程,讲的细致很好,学习了numpy,pandas,matplotlib库的一些内容,现在结合学习大佬的代码,实现单变量线性回归(之前也纯理解写了一些实现的代码,比较low).实现import numpy as npimport pandas as pdimport matplotlib.pyplot as plt'''读文件数据'''path = "../Doc/ex1data1.txt"data = pd.read_csv(path原创 2020-08-24 18:26:18 · 198 阅读 · 0 评论 -
单变量线性回归(小白)
开始看吴恩达老师机器学习的课程,尝试动手实现一下单变量线性回归的梯度下降python刚入门,代码没有用什么库文件,也没有使用矩阵,总之很low吧,代码实现出来和大佬的图有一点点差别,应该是步长设置或者是数据精度的问题,代码有的语句也比较直白或者繁琐,慢慢积累继续努力。import matplotlib.pyplot as pltimport numpy as np#读文件def openfile(path): f = open(path,"r+") lines = f.readl原创 2020-08-24 18:08:23 · 265 阅读 · 0 评论 -
对于聚类K-means方法实例的学习总结
案例:解1999年各个省份的消费水平在国内的情况北京,2959.19,730.79,749.41,513.34,467.87,1141.82,478.42,457.64天津,2459.77,495.47,697.33,302.87,284.19,735.97,570.84,305.08河北,1495.63,515.90,362.37,285.32,272.95,540.58,364.91,188.63山西,1406.33,477.77,290.15,208.57,201.50,414.72,28..原创 2020-08-10 10:41:27 · 929 阅读 · 0 评论