机器学习-3

2018年8月3、4、5日 吴恩达机器学习7、8、9、10章

主要内容:线性回归、逻辑斯蒂回归的正则化;神经网络算法;应用机器学习的建议;

 

  1. 正则化
  1. )Regularized linear regression

Cost function:

;

min j(θ)

利用梯度下降算法求解最优参数:

Repeat{

     

       

                                   (j=1,2,3,…)

}

 

利用Normal equation求解最优参数时的正则化:

; 注:引入正则化向后即使为singular matrix也没有问题。

2.)Regularized logistic regression

Cost function:

;

min j(θ)

利用梯度下降算法求解最优参数:

Repeat{

     

        

                                   (j=1,2,3,…)

}

注:利用梯度下降算法在logistic regression的表达形式和在linear regression一致,但因hypothesis有差别,所以实质是不一样的。

 

2、neural networks

neural model: logistic unit

  ;

;  权重weight

: artificial neuron with a sigmoid or a logistic activation function;

;

 

: activation of unit i in layer j

: matrix of weights controlling function mapping form layer j to layer j+1

 

If network has s(j) units in layer j, s(j+1) units in layer j+1, then will be of dimension s(j+1)xs(j)

Forward propagation:

    ------>    (hΘx) ; L: total no. of layers in networks

 

Cost function

J(Θ) .

 

利用backpropagation计算损失函数对各个参数的偏导,然后利用梯度下降算法或者其他算法获得最优参数;

 

3、advice for applying machine learning

gradient checking: 用于验证反向传播算法(或其他算法)计算得到的偏导。(Gradient checking中计算偏导是利用数值方法计算(导数的定义))

将dataset->training set + test set + cross validation set

 

Getting more training examples

Trying smaller sets of features

Trying getting additional features

Trying adding polynomial features

Try decreasing 

Try increasing

将这些手段用于设计或应用这些算法。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值