逻辑回归.感知器算法

本文是根据Andrew Ng的Stanford公开课整理的机器学习笔记,重点介绍了逻辑回归和感知器算法。通过简化公式,展示了如何计算似然函数并采用梯度上升法更新参数。文中指出,无论假设如何,使用梯度下降法更新规则通常呈现相同形式,与最小二乘法相似。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

《Andrew Ng 机器学习笔记》这一系列文章文章是我再观看Andrew Ng的Stanford公开课之后自己整理的一些笔记,除了整理出课件中的主要知识点,另外还有一些自己对课件内容的理解。同时也参考了很多优秀博文,希望大家共同讨论,共同进步。


网易公开课地址:http://open.163.com/special/opencourse/machinelearning.html



逻辑回归

在之前的学习中,我们一直使用的是线性回归,因为我们将目标函数看作是连续变化的。即便当问题不能用线性模型解决,我们也可以使用局部加权回归的方法。

对于目标值是离散变量的分类问题来说,线性模型就不是很适用,虽然也有一些分类可以通过线性模型解决,但并不是最好的方法。对于目标值是离散变量的分类问题,我们假设目标值为{0,1},构造一个新的预测函数,这种方法就叫逻辑回归

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值