
人工智能
文章平均质量分 84
ctsas
这个作者很懒,什么都没留下…
展开
-
梯度下降法
梯度 在二元函数的情形,设函数 f(x,y)f(x,y) 在平面区域 DD 内具有一阶连续偏导数,则对于每一点 P0(x0,y0)∈DP_0(x_0,y_0) \in D,都可以定出一个向量 fx(x0,y0)i+fy(x0,y0)jf_x(x_0,y_0)i+f_y(x_0,y_0)j 这向量称为函数 f(x,y)f(x,y) 在点P0(x0,y0)P_0(x_0,y_0) 的梯度,记为∇原创 2018-01-04 14:28:43 · 467 阅读 · 0 评论 -
Machine Learning - WEEK 1 2 3- 线性回归 、逻辑回归、梯度下降法及其优化算法、传统方法、 Octave 入门
WEEK 1、2、3 本文为个人笔记,只记了重要内容,不适合新手入手 线性回归 样本(x(i),y(i)),i∈1,2,…,m" role="presentation" style="position: relative;">(x(i),y(i)),i∈1,2,…,m(x(i),y(i)),i∈1,2,…,m(x^{(i)},y^{(i)}),原创 2018-02-01 19:47:49 · 491 阅读 · 0 评论