- 博客(21)
- 收藏
- 关注
原创 torch.bmm()
是PyTorch中的一个函数,用于执行批量矩阵乘法(Batch Matrix Multiplication)的操作。它接受三个张量作为输入,并返回批量矩阵乘法的结果。函数在许多情况下非常有用,特别是当需要同时处理多个矩阵,并进行矩阵乘法操作时,可以利用该函数的批量处理功能。的最后两个维度进行矩阵乘法操作。的最后两个维度执行矩阵乘法,并保持其他维度不变。,其中第一个维度表示批量大小,第二个维度表示。进行批量矩阵乘法的操作。它们的形状适合执行批量矩阵乘法操作。中的矩阵数量,第三个维度表示。
2023-05-09 15:04:23
4215
原创 pytorch中的广播机制
通过广播机制,我们可以方便地对不同形状的张量进行逐元素的操作,而不需要显式地扩展维度。这种方式能够提高代码的简洁性和可读性。当两个张量的形状不完全匹配时,PyTorch中的广播机制可以自动地将它们扩展到相同的形状,以便进行元素级别的操作,如求和。形状匹配,可以进行元素级别的求和。最终的结果保存在张量。但是,由于PyTorch的广播机制,它会自动地将。它们的形状不匹配,无法直接进行相加。在这个例子中,我们创建了一个形状为。的形状,使得它的每一行都与。的每个元素都是对应位置的。
2023-05-09 14:55:15
422
原创 [opencv]中一些函数的用法
Otsu’s 二值化是一种自适应的图像二值化方法,它的核心思想是通过寻找最佳的阈值,将图像分割成前景和背景两个区域,使得分割后的图像的类间方差最大化,从而达到最佳的二值化效果。该函数的实现过程是,将卷积核作为一个滑动窗口,在图像上从左上角开始遍历,每次取窗口内的像素和卷积核对应位置的权值进行乘积累加,将结果写入输出图像中对应位置的像素值。仿射变换代表的是两幅图之间的映射关系,仿射变换矩阵为2x3的矩阵,如下图中的矩阵M,其中的B起着平移的作用,而A中的对角线决定缩放,反对角线决定旋转或错切。
2023-05-03 18:48:17
7535
原创 parse_known_args()
方法,用于解析命令行参数并返回一个包含解析结果的命名空间对象。但是,如果在解析命令行参数时出现错误,该方法会抛出异常,导致程序无法继续执行。在添加参数时,可以指定参数的名称、类型、默认值、帮助信息等。当我们需要在 Python 程序中从命令行中获取参数时,可以使用标准库中的。类是核心类,用于定义程序需要的参数,并在程序中解析这些参数。参数是可选的,不需要传入值,只需要在命令行中使用。方法类似,但是不会抛出异常,而是忽略未知的参数。参数是必需的,需要传入一个字符串类型的值;对象来获取命令行参数的值,例如。
2023-04-29 19:15:39
1396
原创 scipy.stats.spearmanr
Spearman 相关系数是一种用于度量两个变量的非线性相关性的方法,它是基于变量的秩(而非实际值)来计算的。Spearman 相关系数的值介于 -1 和 1 之间,如果相关系数为正,则说明两个变量是正相关的,如果相关系数为负,则说明两个变量是负相关的,如果相关系数接近于 0,则说明两个变量之间几乎没有相关性。Spearman 相关系数是一种非参数的相关系数,用于度量两个变量的单调关系,不要求变量满足正态分布和线性关系。是计算得到的 Spearman 相关系数,分别是两个需要计算相关性的变量,
2023-04-29 16:49:29
1996
原创 【pytorch】torch.stack()/F.interpolate/unsqueeze_(0)/squeeze()
函数会将一个元素为张量的序列(列表、元组等)沿着新的维度进行拼接,生成一个新的张量。例如,如果有一个包含 n 个 k维张量的序列,那么它们拼接后的张量就会是 (n, k) 维的。在进行插值操作时,F.interpolate()函数会自动根据目标大小和原始大小计算出插值的比例,并对输入张量进行插值操作。要对输入张量进行的插值操作必须在height和width两个维度上进行,即必须在后两个维度上指定插值后的目标大小。是一个PyTorch张量操作,用于从张量中删除尺寸为1的维度,并返回新的张量。
2023-04-29 16:46:36
781
原创 cv2.cvtColor()/cv2.VideoCapture/cap.read()
srccodedstsrcdstCncode例如,将一张BGR格式的图片转换为RGB这里,是 OpenCV 库中读取图像的函数。默认情况下,它读取的图像格式为BGR。函数用于将BGR格式的图像转换为RGB格式。cv2.VideoCapture读出的帧格式默认是BGR格式,即每个像素由蓝色、绿色和红色三个分量组成。
2023-04-29 15:04:08
2488
原创 循环神经网络
从左到右扫描序列数据,每个时间步共享参数我们首先从最基本的RNN Cell来更直观地了解一下RNN的原理 但一般不使用RNN Cell,pytorch为我们提供了可以直接使用的nn.RNN 这里多了一个输入的值num_layers,什么是num_layers呢?这就需要引入深层神经网络。
2023-03-30 16:56:53
81
原创 【深度学习】卷积神经网络CNN
重要属性:局部连接、权值共享、平移不变性局部连接:每个神经元不再和上一层的所有神经元相连,而只和一小部分神经元相连,从而可显著降低网络参数量。权值共享:不同位置处的神经元共享同一组权重(滤波器),可进一步降低网络参数量平移不变性:滤波器可捕获与图像空间位置无关的区域特征三种基础组件•卷积层(Convolutional Layer)•激活层 (Activation Layer)•池化层 ( Pooling Layer )
2023-03-13 12:24:04
298
原创 【机器学习】绪论
1956年夏达特茅斯会议标志着人工智能这一学科的诞生。第一阶段:推理期1956-1960年代:逻辑推理主要成就: 自动定理证明系统 (例如,西蒙与纽厄尔的“Logic Theorist”系统)第二阶段:知识期1970s -1980s:知识工程主要成就: 专家系统 (例如,费根鲍姆等人的“DENDRAL”系统)第三阶段:学习期20世纪90年代-现在:机器学习。
2023-02-14 17:13:49
272
原创 【机器学习】原型聚类(K-means、高斯混合聚类、学习向量量化LVQ)、密度聚类DBSCAN、层次聚类AGNES
原型聚类(K-means、高斯混合聚类、学习向量量化LVQ)、密度聚类DBSCAN、层次聚类AGNES
2023-02-05 22:52:55
1898
原创 【机器学习】决策树(划分选择、算法流程、剪枝处理,连续值与缺失值处理)
划分选择(信息增益、增益率、基尼指数)、算法流程、剪枝处理(预剪枝、后剪枝),连续值与缺失值处理,多变量决策树
2023-02-05 11:44:47
1513
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人