吴恩达机器学习笔记(三)线性代数基础

本文是吴恩达机器学习课程的笔记,主要介绍线性代数的基础知识,包括矩阵和向量的概念,加量和标量乘法,矩阵向量乘法,矩阵乘法规则,逆矩阵和转置的概念。讨论了矩阵乘法的性质,如不满足交换律,但服从结合律,并介绍了单位矩阵的重要性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >


本文章是笔者根据Coursera上吴恩达教授的机器学习课程来整理的学习笔记。如果是初学者,建议大家首先观看吴恩达教授的课程视频,然后再来看博文的要点总结。两者一起食用,效果更佳。

一、矩阵和向量(Matrix and Vector)

矩阵(matrix):是一个二维数组。矩阵的维度是行数*列数。
矩阵的表示:

向量(vector):是n*1的矩阵。向量的维度是元素的个数。
向量的表示:

矩阵常用大写字母表示,向量常用小写字母表示。

二、加量和标量乘法(Addition and Scaler Multiplication)

矩阵加法:只有相同维度的矩阵可以相加。
矩阵和标量的乘法(Scalar Multiplication):

一个更复杂的例子:

三、矩阵向量乘法(M

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值