
机器学习
-TOXNO-
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
吴恩达 机器学习课程 coursera 第四次编程作业(Neural Network Back Propagation) python实现
本文是吴恩达机器学习课程的第四次编程作业:Neural Network Back Propagation,用python实现。ex4.py为主程序入口。作业文件和训练集数据下载地址:https://github.com/toanoyx/MachineLearning-AndrewNg-coursera-python/tree/master/ex4%20NN%20back%20prop...原创 2020-02-13 16:12:09 · 894 阅读 · 0 评论 -
吴恩达 机器学习课程 coursera 第三次编程作业(Neural Network) python实现
本文是吴恩达机器学习课程的第三次编程作业:Neural Network,用python实现。ex3.py为主程序入口。作业文件和训练集数据下载地址:https://github.com/toanoyx/MachineLearning-AndrewNg-coursera-python/tree/master/ex3%20Neural%20Network下文是文件的源代码:...原创 2020-02-07 15:04:14 · 995 阅读 · 1 评论 -
吴恩达 机器学习课程 coursera 第二次编程作业(Logistic Regression Regularized) python实现
本文是吴恩达机器学习课程的第二次编程作业:Logistic Regression Regularized 的扩展作业,用python实现。本作业包含5个文件,分别是:ex2_reg.py 主程序入口predict.py 预测函数gradientReg.py 梯度下降算法costFunctionReg.py 代价函数算法sigmoid.py 函数计算方法作业文...原创 2020-02-05 20:39:05 · 651 阅读 · 1 评论 -
吴恩达 机器学习课程 coursera 第二次编程作业(Logistic Regression) python实现
本文是吴恩达机器学习课程的第二次编程作业:Logistic Regression 的基础作业,用python实现。本作业包含5个文件,分别是:ex2.py :程序的主入口costFunction.py :计算代价函数gradientDescent.py :梯度向下算法predict.py :预测算法ex2data1.txt :训练集作业文件和训练集数据下载地...原创 2020-02-01 13:35:52 · 719 阅读 · 0 评论 -
吴恩达 机器学习课程 coursera 第一次编程作业(Linear Regression Multi) python实现
本文是吴恩达老师的机器学习课程coursera的第一次编程作业的多变量部分。源码和数据集下载:https://github.com/toanoyx/MachineLearning-AndrewNg-coursera-python/tree/master/ex1%20Linear%20Regression/ex1_multiex1_multi.pyimport numpy ...原创 2020-01-06 16:31:55 · 458 阅读 · 0 评论 -
吴恩达 机器学习课程 coursera 第一次编程作业(Linear Regression) python实现
本文是吴恩达机器学习课程的第一次编程作业:Linear Regression 的基础作业,即影响因子是单个变量的情况,用python实现。本作业包含5个文件,分别是:ex1.py :程序的主入口plot_data.py :可视化训练集compute_cost.py :计算代价函数gradient_descent.py :梯度向下算法ex1data1.txt :训练集...原创 2020-01-02 22:23:33 · 650 阅读 · 0 评论 -
Windows10下安装机器学习工具Octave
最近在看吴恩达老师的机器学习课程视频,其中推荐使用Octave,所以下载进行学习。下载地址:https://www.gnu.org/software/octave/#install(1)Windows10选择x64版本,下载安装包。(2)下载安装包后开始安装,一路点击“Next”,最后“install”就行了,可以改一下安装路径。(3)安装完毕!(4...原创 2019-12-29 16:08:46 · 489 阅读 · 0 评论