深度学习笔记2:线性代数

本文介绍了线性代数中的基本概念,包括标量的表示与运算、向量的一维表示及其操作(长度、点乘、正交)、矩阵的定义、特殊矩阵(如对称矩阵、置换矩阵)以及张量的维度和降维。此外,还涵盖了矩阵乘法、范数(L1、L2和Frobenius)、深度学习中的应用和一些实用技巧,如求和、平均值和非降维计算。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

线性代数

标量

标量由只有一个元素的张量表示

  • 简单操作

在这里插入图片描述

  • 长度

在这里插入图片描述

实例化两个标量,并执行一些熟悉的算术运算,即加法、乘法、除法和指数。

import torch

x = torch.tensor([3.0]) #标量
y = torch.tensor([2.0])

x + y, x * y, x / y, x ** y #标量运算

结果:(tensor([5.]), tensor([6.]), tensor([1.5000]), tensor([9.]))

向量

可以将向量视为标量值组成的列表。 将这些标量值称为向量的元素(element)或分量(component)。 当向量表示数据集中的样本时,它们的值具有一定的现实意义。

  • 简单操作

在这里插入图片描述

  • 长度

在这里插入图片描述

  • 点乘

在这里插入图片描述

  • 正交

在这里插入图片描述

1、通过一维张量处理向量。

x = torch.arange(4)
x

结果:tensor([0, 1, 2, 3])

2、通过张量的索引来访问任一元素

x[3]

结果:tensor(3)

3、可以通过调用Python的内置len()函数来访问张量的长度。

len(x)

结果:4

4、也可以通过.shape属性访问向量的长度。 形状(shape)是一个元素组,列出了张量沿每个轴的长度(维数)。 对于只有一个轴的张量,形状只有一个元素。

x.shape

结果:torch.Size([4])

维度:向量的维度被用来表示向量的长度,即向量或轴的元素数量。 然而,张量的维度用来表示张量具有的轴数。 在这个意义上,张量的某个轴的维数就是这个轴的长度。

矩阵

正如向量将标量从零阶推广到一阶,矩阵将向量从一阶推广到二阶。在代码中表示为具有两个轴的张量。

在这里插入图片描述

  • 特殊矩阵
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值