- 博客(2)
- 收藏
- 关注
原创 吴恩达机器学习第二周
Hypothesis: Parameters: Cost Function: Goal: Gradient Descent: Repeat{ (simultaneously update for j=0, 1, ... , n) } Feature Scaling: 其中是平均值,是标准差(中心化、标准化) Learning Rate: 通常可...
2019-06-05 18:13:45
300
原创 吴恩达机器学习第一周
Hypothesis: Parameters: Cost Function: Goal: Gradient Descent: repeat until convergence{ } 梯度下降的线性回归: Details:
2019-06-04 20:03:45
164
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人