- 博客(20)
- 收藏
- 关注
原创 Pytorch学习(图像卷积)
我们将图5.1中形状为2×2的输出记为𝑌,并考虑一个更深的卷积神经网络:将𝑌与另一个形状为2×2的核数组做互相关运算,输出单个元素𝑧。也就是说,图5.1中的输入与学出的已翻转的核数组再做卷积运算时,依然得到图5.1中的输出。当卷积窗口滑动到某一位置时,窗口中的输入子数组与核数组按元素相乘并求和,得到输出数组中相应位置的元素。卷积核窗口(又称卷积窗口)的形状取决于卷积核的高和宽,即2×2。其余部分的输出全是0。可见,卷积运算和互相关运算虽然类似,但如果它们使用相同的核数组,对于同一个输入,输出往往并不相同。
2024-01-02 15:14:03
1020
1
原创 genki4k人脸数据集分享
链接:https://pan.baidu.com/s/1mGtCAsy5QhPJ_C_VtvdmCw?--来自百度网盘超级会员V3的分享。
2024-01-02 15:13:24
783
1
原创 dlib: 下载dlib_face_recognition_resnet_model_v1
链接:https://pan.baidu.com/s/1KUZTz6jxfhPyt--pt66KTw?--来自百度网盘超级会员V3的分享。面部的,直接上链接,免费。
2023-12-30 16:23:14
926
1
原创 dlib: shape_predictor_68_face_landmarks.dat 下载
链接:https://pan.baidu.com/s/1rKl5N04rdkaHrWjgr9TpkQ?--来自百度网盘超级会员V3的分享。直接上链接,免费,快捷。
2023-12-30 16:20:37
981
1
原创 机器学习-PCA
(Principal Component Analysis,PCA), 简称PCA,是一种统计方法。过正交变换将一组可能存在相关性的变量转换为一组线性不相关的变量,转换后的这组变量叫主成分。主成分分析是我们在数学建模的过程中最为常见的线性降维方式,在比赛中常常会用在数据指标过多的处理,把高维度数据处理成低维度数据,方便后续建模。说人话就是将多个数据指标降维到较少的数据指标。
2023-12-26 20:13:16
169
1
原创 机器学习-支持向量机(SVM)以及SVM-笑容识别实现
可用于线性/非线性分类,也可以用于回归,泛化错误率低,也就是说具有良好的学习能力,且学到的结果具有很好的推广性。可以解决小样本情况下的机器学习问题,可以解决高维问题,可以避免神经网络结构选择和局部极小点问题。SVM是最好的现成的分类器,现成是指不加修改可直接使用。并且能够得到较低的错误率,SVM可以对训练集之外的数据点做很好的分类决策。缺点对参数调节和和函数的选择敏感。额外还有表情笑容识别,手写体识别等等
2023-12-04 21:48:39
287
原创 机器学习--Logistic回归
Logistic回归的目的是寻找一个非线性函数Sigmoid的最佳拟合参数,求解过程可以有最优化算法来完成。在最优化算法中,最常用的是梯度上升算法,而此算法又可以简化成随机梯度上升算法。随机梯度上升算法是一个在线算法,可以在新数据到来时完成参数更新,而不是像梯度上升算法那样对整个数据集进行批处理。数据集入口。
2023-11-27 19:24:29
146
原创 目标检测和YOLOv3设计思想
还有更为重要的一点是,由于锚框位置是固定的,它不大可能刚好跟物体边界框重合,所以需要在锚框的基础上进行微调以形成能准确描述物体位置的预测框,模型需要预测出微调的幅度。要完成一项检测任务,我们通常希望模型能够根据输入的图片,输出一些预测的边界框,以及边界框中所包含的物体的类别或者说属于某个类别的概率,例如这种格式: [𝐿,𝑃,𝑥1,𝑦1,𝑥2,𝑦2],其中𝐿是类别标签,𝑃是物体属于该类别的概率。非极大值抑制的做法是,选出某个类别得分最高的预测框,然后看哪些预测框跟它的IoU大于阈值,就把这些预测框给丢弃掉。
2023-11-27 13:44:50
146
原创 机器学习-朴素贝叶斯
生成式模型,通过计算概率来进行分类,可以用来处理多分类问题。对小规模的数据表现很好,适合多分类任务,适合增量式训练,算法也比较简单。对输入数据的表达形式很敏感。由于朴素贝叶斯的“朴素”特点,所以会带来一些准确率上的损失。需要计算先验概率,分类决策存在错误率。
2023-11-15 16:33:34
210
1
原创 决策树-机器学习
有监督机器学习算法中的一类经典算法,是最经常使用的数据挖掘算法。它是一种典型的分类方法,首先对数据进行处理,利用归纳算法生成可读的规则和决策树,然后使用决策对新数据进行分析。本质上决策树是通过一系列规则对数据进行分类的过程。典型算法有ID3,C4.5,CART等>
2023-11-05 21:37:41
193
1
原创 数据压缩——霍夫曼(Huffman)文本读取编码matlab
霍夫曼编码是一种可变长编码( VLC, variable length coding))方式,比起定长编码的 ASCII 编码来说,哈夫曼编码能节省很多的空间,因为每一个字符出现的频率不是一致的;是一种用于无损数据压缩的熵编码算法,通常用于压缩重复率比较高的字符数据。如果我们通过转换成ASCII码对应的二进制数据将字符串 BCAADDDCCACACAC 通过二进制编码进行传输,那么一个字符传输的二进制位数为 8bits,那么总共需要120 个二进制位;而如果使用霍夫曼编码,该串字符。
2023-10-23 11:16:23
2864
7
原创 机器学习之模型评估(分类模型,回归模型)ROC,PR曲线
混淆矩阵(Confusion Matrix)是在机器学习中,用于对分类模型的性能进行评估的一种方法。混淆矩阵展示了模型在分类任务中的预测结果与实际标签之间的对应关系。混淆矩阵通常是一个二维矩阵,其中每一行代表着实际标签的类别,每一列代表着预测结果的类别。真正例(True Positive, TP):表示模型将正样本正确地预测为正样本的数量。假负例(False Negative, FN):表示模型将正样本错误地预测为负样本的数量。
2023-10-16 20:40:28
809
1
原创 机器学习第二次上机(KNN)9.26
KNN刚开始一直觉得名字很奇怪,后来知道它的英文全名为 K-Nearest Neighbor(k个最近的邻居),就豁然开朗。明白其核心为”近朱者赤,近墨者黑“,即由你的邻居来推断出你的类别。KNN最邻近分类算法的实现原理:为了判断未知样本的类别,以所有已知类别的样本作为参照,计算未知样本与所有已知样本的距离,从中选取与未知样本距离最近的K个已知样本,根据少数服从多数的投票法则(majority-voting),将未知样本与K个最邻近样本中所属类别占比较多的归为一类。
2023-10-06 19:51:28
256
1
原创 pytorch学习1(数据操作)
声明:该文章为学习实验老师给的笔记在深度学习中,我们通常会频繁地对数据进行操作。作为动手学深度学习的基础,本节将介绍如何对内存中的数据进行操作。在PyTorch中,是存储和变换数据的主要工具。如果你之前用过NumPy,你会发现Tensor和NumPy的多维数组非常类似。然而,Tensor提供GPU计算和自动求梯度等更多功能,这些使Tensor更加适合深度学习。"tensor"这个单词一般可译作“张量”,张量可以看作是一个多维数组。标量可以看作是0维张量,向量可以看作1维张量,矩阵可以看作是二维张量。
2023-09-17 15:45:49
104
1
原创 机器学习上机第一课(9.12)
它创立虚拟环境,不影响我们自己的电脑环境,很方便。anaconda命令创建python版本为x.x,名字为test的虚拟环境。正所谓工欲善其事,必先利其器,我们在开始机器学习正式实验之前需要把我们的电脑环境配置好。,注意选择与自己电脑配置相同的版本,最好选择python 3.7版本,下载完按照提示进行安装。下载完成后点击安装,一路都next至该页面配置自己的安装位置。注意:安装的时候是用pip 安装, 卸载的时候也需要pip uninstall。,下载社区版本(日常学习使用够用了),专业版是收费的。
2023-09-14 20:08:47
205
1
原创 Robocup3D第一次笔记
初学robocup3D,还不太了解。首先我们安装好robocup3D的环境,先测试一下demo1:在roboviz文件夹里打开终端,输入 ./roboviz.sh 打开仿真模拟器2:在
2022-03-24 12:59:49
1554
1
原创 继承与派生c++(不完整)
继承可以在已有类的基础上创建新的类,新类可以从一个或多个已有类中继承成员函数和数据成员,而且可以重新定义或加进新的数据和函数,从而形成类的层次或等级。其中,已有类称为基类或父类,在它基础上建立的新类称为派生类或子类。继承与派生的概念类的继承是新的类从已有类那里得到已有的特性。从另一个角度来看这个问题,从已有类产生新类的过程就是类的派生。类的继承和派生机制较好地解决了代码重用的问题。关于基类和派生类的关系,可以表述为:派生类是基类的具体化,而基类则是派生类的抽象。#include &
2022-01-31 23:08:16
120
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人