吴恩达机器学习笔记(一)

这篇博客介绍了吴恩达机器学习课程的第一部分,主要内容包括机器学习的定义,单变量线性回归的模型表示、代价函数以及梯度下降算法。博主详细解释了如何使用梯度下降法寻找代价函数最小值,以及在线性回归问题中如何应用此算法更新参数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1 Introduction

什么是机器学习

1、Arthur Samuel的定义:在没有明确设置的情况下,使计算机具有学习能力的研究领域。

2、Tom Mitchell的定义:计算机程序从经验E中学习,解决某一任务T进行某一性能度量P,通过P测定在T上的变现因经验E而提高。

在这里插入图片描述

2 Linear Regression with One Variable(单变量线性回归)

2.1 model representation(模型表示)

这是课程中涉及到的第一个算法:线性回归算法

在这里插入图片描述

如上图所示,我们用一条直线来拟合预测函数,因为要预测的是房子的价格,输出一个连续值,因此是回归问题。

就这个房屋价格预测问题,我们用一些变量来描述解决方案:
mmm:训练集中样本的数量
xxx:输入的变量/样本特征
yyy:输出的目标变量/结果

(x(i),y(i))\left( x ^ { ( i ) } , y ^ { ( i ) } \right)(x(i),y(i)):第i个样本

hθ(x)h_\theta(x)hθ(x):学习算法的解决方案或函数 ,一般的解决方案都用hhh标记

一般的学习流程如下图:在这里插入图片描述

可以看到,输入训练集,经过学习算法得到预测函数h,再用h根据输入的特征预测输出。

对于房屋价格预测这个问题,我们假设函数h为线性函数,并且hθ(x)=θ0+θ1xh _ { \theta } ( x ) = \theta _ { 0 } + \theta _ { 1 } xhθ(x)=θ0+θ1x,可以看到预测函数h只含有一个特征/输入变量,因此我们将这样的问题叫作单变量线性回归问题 。

2.2 cost function(代价函数)

由上一节,我们得到了线性回归算法的一个简单的数学模型,那么我们怎么选择这个模型的参数才能让我们得到的模型能最靠近正确的结果?由此引进了代价函数。我们知道,就上面的房屋价格预测问题,最好的结果是模型正好经过全部的点,但是显然用线性回归模型是做不到的,那么我们只能让直线离所有的点越近越好,也就是模型所预测的值与训练集中实际值之间的差距越小越好,这个差距如下面的图所示,也称为建模误差。

在这里插入图片描述

我们的目标便是选择出可以使得建模误差的平方和能够最小的模型参数, 即使得代价函数 J(θ0,θ1)=12m∑i=1m(hθ(x(i))−y(i))2J \left( \theta _ { 0 } , \theta _ { 1 } \right) = \frac { 1 } { 2 m } \sum _ { i = 1 } ^ { m } \left( h _ { \theta } \left( x ^ { ( i ) } \right) - y ^ { ( i ) } \right) ^ { 2 }J(θ0,θ1)=2m1i=1m(hθ(x(i))y(i))2的值最小。

整理一下,整个问题归结为以下的问题:

在这里插入图片描述

目标是找出让代价函数最小的参数的值,由此得到预测函数。我们可以画出代价函数在直角坐标空间中的图像,如下图所示:

在这里插入图片描述

可以看出的是,空间中存在让代价函数最小的点。代价函数也被称作平方误差函数,有时也被称为平方误差代价函数。我们之所以要求出误差的平方和,是因为误差平方代价函数,对于大多数问题,特别是回归问题,都是一个合理的选择。

2.3 Gradient Descent (梯度下降)

梯度下降是一个用来求函数最小值的算法,我们将使用梯度下降算法来求出代价函数J(θ0,θ1)J \left( \theta _ { 0 } , \theta _ { 1 } \right)J(θ0,θ1)的最小值。

梯度下降背后的思想是:开始时我们随机选择一个参数的组合(θ0,θ1,……,θn)\left( \theta _ { 0 } , \theta _ { 1 } , \ldots \ldots , \theta _ { n } \right)(θ0,θ1,,θn),计算代价函数,然后我们寻找下一个能让代价函数值下降最多的参数组合。我们持续这么做直到到到一个局部最小值,因为我们并没有尝试完所有的参数组合,所以不能确定我们得到的局部最小值是否便是全局最小值,选择不同的初始参数组合,可能会找到不同的局部最小值 ,如下面两幅图所示。

在这里插入图片描述

在这里插入图片描述

批量梯度下降算法的公式为:

repeat until convergence {\{{
θj:=θj−α∂∂θjJ(θ0,θ1)\theta _ { j } : = \theta _ { j } - \alpha \frac { \partial } { \partial \theta _ { j } } J \left( \theta _ { 0 } , \theta _ { 1 } \right) \quadθj:=θjαθjJ(θ0,θ1) (simultaneously update,j=0j=0j=0 and j=1)j=1)j=1)

}\}}

其中α\alphaα是学习率,它决定了我们沿着能让代价函数下降程度最大的方向向下迈出的步子有多大,在批量梯度下降中,我们每一次都同时让所有的参数减去学习速率乘以代价函数的导数。

如果α\alphaα太小了,即学习速率太小,那么每次只能挪动一点去努力接近最低点,这样就需要很多步才能到达最低点。而如果α\alphaα太大了,那么梯度下降法可能会越过最低点,甚至可能无法收敛,下一次迭代又移动了一大步,越过一次,又越过一次,一次次越过最低点,直到你发现实际上离最低点越来越远。

在梯度下降法中,当我们接近局部最低点时,梯度下降法会自动采取更小的幅度,这是因为当我们接近局部最低点时,很显然在局部最低时导数等于零,所以当我们接近局部最低时,导数值会自动变得越来越小,所以梯度下降将自动采取较小的幅度,这就是梯度下降的做法。

在这里插入图片描述

在更新θ0和θ1\theta_0和\theta_1θ0θ1时,我们要同时更新两个参数。如果我们初始化参数组合在局部最低点,由于该点的导数为0,θ0,θ1\theta_0 , \theta_1θ0,θ1的值将不变,也就是收敛到局部最低点了。

2.4 Gradient descent for linear regression(梯度下降的线性回归)

在这里插入图片描述

对我们之前的线性回归问题运用梯度下降法,关键在于求出代价函数的导数,即:

∂∂θjJ(θ0,θ1)=∂∂θj12m∑i=1m(hθ(x(i))−y(i))2\frac { \partial } { \partial \theta _ { j } } J \left( \theta _ { 0 } , \theta _ { 1 } \right) = \frac { \partial } { \partial \theta _ { j } } \frac { 1 } { 2 m } \sum _ { i = 1 } ^ { m } \left( h _ { \theta } \left( x ^ { ( i ) } \right) - y ^ { ( i ) } \right) ^ { 2 }θjJ(θ0,θ1)=θj2m1i=1m(hθ(x(i))y(i))2

j=0:∂∂θ0J(θ0,θ1)=1m∑i=1m(hθ(x(i))−y(i))j = 0 : \frac { \partial } { \partial \theta _ { 0 } } J \left( \theta _ { 0 } , \theta _ { 1 } \right) = \frac { 1 } { m } \sum _ { i = 1 } ^ { m } \left( h _ { \theta } \left( x ^ { ( i ) } \right) - y ^ { ( i ) } \right)j=0:θ0J(θ0,θ1)=m1i=1m(hθ(x(i))y(i))

j=1:∂∂θ1J(θ0,θ1)=1m∑i=1m((hθ(x(i))−y(i))⋅x(i))j = 1 : \quad \frac { \partial } { \partial \theta _ { 1 } } J \left( \theta _ { 0 } , \theta _ { 1 } \right) = \frac { 1 } { m } \sum _ { i = 1 } ^ { m } \left( \left( h _ { \theta } \left( x ^ { ( i ) } \right) - y ^ { ( i ) } \right) \cdot x ^ { ( i ) } \right)j=1:θ1J(θ0,θ1)=m1i=1m((hθ(x(i))y(i))x(i))

则算法改写成:

Repeat {\{{
θ0:=θ0−a1m∑i=1m(hθ(x(i))−y(i))\theta _ { 0 } : = \theta _ { 0 } - a \frac { 1 } { m } \sum _ { i = 1 } ^ { m } \left( h _ { \theta } \left( x ^ { ( i ) } \right) - y ^ { ( i ) } \right)θ0:=θ0am1i=1m(hθ(x(i))y(i))
θ1:=θ1−a1m∑i=1m((hθ(x(i))−y(i))⋅x(i))\theta _ { 1 } : = \theta _ { 1 } - a \frac { 1 } { m } \sum _ { i = 1 } ^ { m } \left( \left( h _ { \theta } \left( x ^ { ( i ) } \right) - y ^ { ( i ) } \right) \cdot x ^ { ( i ) } \right)θ1:=θ1am1i=1m((hθ(x(i))y(i))x(i))
}\}}

最终结果就是得到收敛后的参数组合,得到预测函数hθ(x)h_\theta(x)hθ(x)

基于数据挖掘的音乐推荐系统设计与实现 需要个代码说明,不需要论文 采用python语言,django框架,mysql数据库开发 编程环境:pycharm,mysql8.0 系统分为前台+后台模式开发 网站前台: 用户注册, 登录 搜索音乐,音乐欣赏(可以在线进行播放) 用户登陆时选择相关感兴趣的音乐风格 音乐收藏 音乐推荐算法:(重点) 本课题需要大量用户行为(如播放记录、收藏列表)、音乐特征(如音频特征、歌曲元数据)等数据 (1)根据用户之间相似性或关联性,给个用户推荐与其相似或有关联的其他用户所感兴趣的音乐; (2)根据音乐之间的相似性或关联性,给个用户推荐与其感兴趣的音乐相似或有关联的其他音乐。 基于用户的推荐和基于物品的推荐 其中基于用户的推荐是基于用户的相似度找出相似相似用户,然后向目标用户推荐其相似用户喜欢的东西(和你类似的人也喜欢**东西); 而基于物品的推荐是基于物品的相似度找出相似的物品做推荐(喜欢该音乐的人还喜欢了**音乐); 管理员 管理员信息管理 注册用户管理,审核 音乐爬虫(爬虫方式爬取网站音乐数据) 音乐信息管理(上传歌曲MP3,以便前台播放) 音乐收藏管理 用户 用户资料修改 我的音乐收藏 完整前后端源码,部署后可正常运行! 环境说明 开发语言:python后端 python版本:3.7 数据库:mysql 5.7+ 数据库工具:Navicat11+ 开发软件:pycharm
MPU6050是款广泛应用在无人机、机器人和运动设备中的六轴姿态传感器,它集成了三轴陀螺仪和三轴加速度计。这款传感器能够实时监测并提供设备的角速度和线性加速度数据,对于理解物体的动态运动状态至关重要。在Arduino平台上,通过特定的库文件可以方便地与MPU6050进行通信,获取并解析传感器数据。 `MPU6050.cpp`和`MPU6050.h`是Arduino库的关键组成部分。`MPU6050.h`是头文件,包含了定义传感器接口和函数声明。它定义了类`MPU6050`,该类包含了初始化传感器、读取数据等方法。例如,`begin()`函数用于设置传感器的工作模式和I2C地址,`getAcceleration()`和`getGyroscope()`则分别用于获取加速度和角速度数据。 在Arduino项目中,首先需要包含`MPU6050.h`头文件,然后创建`MPU6050`对象,并调用`begin()`函数初始化传感器。之后,可以通过循环调用`getAcceleration()`和`getGyroscope()`来不断更新传感器读数。为了处理这些原始数据,通常还需要进行校准和滤波,以消除噪声和漂移。 I2C通信协议是MPU6050与Arduino交互的基础,它是种低引脚数的串行通信协议,允许多个设备共享对数据线。Arduino板上的Wire库提供了I2C通信的底层支持,使得用户无需深入了解通信细节,就能方便地与MPU6050交互。 MPU6050传感器的数据包括加速度(X、Y、Z轴)和角速度(同样为X、Y、Z轴)。加速度数据可以用来计算物体的静态位置和动态运动,而角速度数据则能反映物体转动的速度。结合这两个数据,可以进步计算出物体的姿态(如角度和角速度变化)。 在嵌入式开发领域,特别是使用STM32微控制器时,也可以找到类似的库来驱动MPU6050。STM32通常具有更强大的处理能力和更多的GPIO口,可以实现更复杂的控制算法。然而,基本的传感器操作流程和数据处理原理与Arduino平台相似。 在实际应用中,除了基本的传感器读取,还可能涉及到温度补偿、低功耗模式设置、DMP(数字运动处理器)功能的利用等高级特性。DMP可以帮助处理传感器数据,实现更高级的运动估计,减轻主控制器的计算负担。 MPU6050是个强大的六轴传感器,广泛应用于各种需要实时运动追踪的项目中。通过 Arduino 或 STM32 的库文件,开发者可以轻松地与传感器交互,获取并处理数据,实现各种创新应用。博客和其他开源资源是学习和解决问题的重要途径,通过这些资源,开发者可以获得关于MPU6050的详细信息和实践指南
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值