本文主要记录我在学习机器学习实战Logistic回归这一章遇到的问题。
之前也学习过逻辑回归,逻辑回归一般解决分类问题,之前结合了吴恩达教授的机器学习课程和周志华教授的西瓜书,现在又用机器学习实战这本书籍来学习,这两种方法在实现过程中存在一些差异。
吴恩达机器学习课程和周志华教授的做法如下:
上面来自吴恩达教授的笔记,详细讲述了损失函数推到过程。
在机器学习实战中:

参数更新方式相同。
两种方法的目标函数虽不同,但也殊途同归。
我在学习时主要遇到的问题是:
对一维向量进行转置时,例如将行向量转换为列向量时,不要用Y.T,或者transpose函数,因为用这两个函数对一维向量转置根本没用,python中,一维向量转置,行向量任然是行向量。
所以我最后用的reshape函数,这样才没有出错。
本章最后用随机梯度上升算法来降低算法的复杂度,并对学习率进行调整,以及随机选取样本来更新参数。

本文对比了吴恩达教授和周志华教授对于逻辑回归的教学方法,并通过《机器学习实战》一书进行了实践。讨论了一维向量转置的正确方法,并介绍了随机梯度上升算法的应用。
5万+

被折叠的 条评论
为什么被折叠?



