- 博客(18)
- 收藏
- 关注
原创 视觉SLAM14讲第 5 讲相机与图像
在 RGB-D 相机的深度图中,记录了各个像素离相机的距离,通常是毫米为单位,而 RGB-D 相机的量程通常在十几米范围左右,超过了 255 的最大值范围。平面上的任意一点 p笛卡尔坐标表示为 [x,y]T , 极坐标的形式[r,θ]T ,其中 r 表示点 p 离坐标系原点的距离, θ表示和水平轴的夹角。透镜的加入对成像过程中光线的传播会产生新的影响: 一是透镜自身的形状对光线传播的影响,二是在机械组装过程中,透镜和成像平面不可能完全平行,这也会使得光线穿过透镜投影到成像面时的位置发生变化。
2024-12-24 11:23:45
784
原创 视觉SLAM14讲第 3 讲三维空间刚体运动
由于三维向量描述三自由度的旋转会带来奇异性,想要无奇异性地表达,用三个量是不够的。复数集 C 表示复平面上的向量,而复数的乘法表示复平面上的旋转。四元数(Quaternion):用类似于复数的代数来表达三维空间旋转,既是紧凑的,也没有奇异性。一个四元数 q 拥有一个实部和三个虚部:其中 i,j,k 为四元数的三个虚部。这三个虚部满足:也可用一个标量和一个向量来表达四元数:s 称为四元数的实部,而 v 称为它的虚部。如果一个四元数虚部为 0,称之为实四元数。反之,若它的实部为 0,称之为虚四元数。
2024-12-23 15:58:14
691
原创 视觉SLAM十四讲第 2 讲 初识 SLAM
它是指搭载特定传感器的主体,在没有环境先验信息的情况下,于运动过程中建立环境的模型,同时估计自己的运动。后端优化要考虑的问题,就是如何从这些带有噪声的数据中,估计整个系统的状态,以及这个状态估计的不确定性有多大——称为最大后验概率估计(Maximum-a-Posteriori,MAP)。例如选择一部分有代表意义的东西,称为路标(Landmark),一张稀疏地图就是由路标组成的地图,不是路标的部分就可以忽略。拓扑地图是一个由节点和边组成的图(Graph),只考虑节点间的连通性,不擅长表达具有复杂结构的地图。
2024-12-20 18:44:19
853
原创 预测数值型数据:回归
回归的目的是预测数值型的目标值。具体的做法是用回归系数乘以输入值,再将结果全部加在一起,就得到了预测值。回归,一般都是指线性回归,线性回归意味着可以将输入项分别乘以一些常量,再将结果加起来得到输出。(3) 分析数据:绘出数据的可视化二维图将有助于对数据做出理解和分析,在采用缩减法。(6) 使用算法:使用回归,可以在给定输入的时候预测出一个数值,这是对分类方法的提。(5) 测试算法:使用R2或者预测值和数据的拟合度,来分析模型的效果。(2) 准备数据:回归需要数值型数据,标称型数据将被转成二值型数据。
2024-12-10 21:03:08
295
原创 利用AdaBoost元算法提高分类性能
模型的精度,即模型预测正确的个数/样本的总个数正确率,阳性预测值,在模型预测为正类的样本中,真正的正样本所占的比例。伪发现率,也是错误发现率,表示在模型预测为正类的样本中,真正的负类的样本所占的比例错误遗漏率,表示在模型预测为负类的样本中,真正的正类所占的比例。即评价模型"遗漏"掉的正类的多少。阴性预测值,在模型预测为负类的样本中,真正为负类的样本所占的比例。召回率,真正类率,表示的是,模型预测为正类的样本的数量,占总的正类样本数量的比值。
2024-12-09 17:53:08
901
原创 支持向量机SVM
支持向量机优点:泛化错误率低,计算开销不大,结果易解释。缺点:对参数调节和核函数的选择敏感,原始分类器不加修改仅适用于处理二类问题。适用数据类型:数值型和标称型数据。线性可分:两组数据分隔得足够开,很容易就可以在图中画出一条直线将两组数据点分开。分隔超平面:将数据集分隔开来的直线称为分隔超平面,也就是分类的决策边界。构建分类器:如果数据点离决策边界越远,那么其最后的预测结果也就越可信。我们找到离分隔超平面最近的点,确保它们离分隔面的距离尽可能远。这里点到分隔面的距离称为间隔。
2024-12-09 16:15:13
646
原创 Logistic回归
Logistic回归分类器:在每个特征上都乘以一个回归系数,然后把所有的结果值相加,将这个总和代入Sigmoid函数中,进而得到一个范围在0~1之间的数值。梯度上升法基于的思想是:要找到某函数的最大值,最好的方法是沿着该函数的梯度方向探寻。回归:有一些数据点,我们利用一条直线对这些点进行拟合(该线称为最佳拟合直线),这个拟合过程就称回归。采用向量的写法,向量x是分类器的输入数据,向量w也就是我们要找到的最佳参数(系数)(4) 训练算法:大部分时间将用于训练,训练的目的是为了找到最佳的分类回归系数。
2024-12-07 11:57:12
354
原创 基于概率论的分类方法:朴素贝叶斯
P(A|B)称为"后验概率"(Posterior probability),即在B事件发生之后,对A事件概率的重新评估。P(B|A)/P(B)称为"可能性函数"(Likelyhood),调整因子,使得预估概率更接近真实概率。A,B相互独立,事件B发生的情况下,事件A发生的概率就是P(A∩B)除以P(B)如果P(c1|x, y) > P(c2|x, y),那么属于类别c1;如果P(c1|x, y) < P(c2|x, y),那么属于类别c2。如果p2(x, y) > p1(x, y),那么属于类别2。
2024-12-06 16:50:01
285
原创 决策树简介
工作原理:得到原始数据集,基于最好的属性值划分数据集,第一次划分后,再次划分数据。优点:计算复杂度不高,输出结果易于理解,对中间值的缺失不敏感,可以处理不相关特征数据。对每个特征划分数据集的结果计算一次信息熵,判断按照哪个特征划分数据集是最好的划分方式。信息增益:在划分数据集之前之后信息发生的变化,获得信息增益最高的特征就是最好的选择。组织杂乱无章数据的一种方法就是使用信息论度量信息,信息论是量化处理信息的分支科学。递归结束的条件:划分数据集所有属性,或者每个分支下的所有实例都具有相同的分类。
2024-12-05 21:39:00
210
原创 k-近邻算法
工作原理:存在一个样本数据集合(训练样本集),并且样本集中每个数据都存在标签,即知道样本集中每一数据与所属分类的对应关系。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。一般选择样本数据集中前k个最相似的数据,这就是k-近邻算法中k的出处,通常k是不大于20的整数。(6) 使用算法:首先需要输入样本数据和结构化的输出结果,然后运行k-近邻算法判定输入数据分别属于哪个分类,最后应用对计算出的分类执行后续的处理。
2024-12-05 17:43:04
258
原创 机器学习基础
要预测目标变量的值,则可以选择监督学习算法,然后进一步确定目标变量类型,如果目标变量是离散型,如是/否、1/2/3、A/B/C或者红/黄/黑等,则可以选择分类算法;数据的特性:特征值是离散型变量还是连续型变量,特征值中是否存在缺失的值,何种原因造成缺失值,数据中是否存在异常值,某个特征发生的频率如何等。目标变量是机器学习算法的预测结果,训练样本集必须确定知道目标变量的值,以便机器学习算法可以发现特征和目标变量之间的关系。知识表示可以采用规则集的形式,可以采用概率分布的形式,也可以是训练样本集中的一个实例。
2024-12-05 15:20:28
319
原创 sizeof整型数组,sizeof字符数组,strlen
strlen:字符串长度,计算到\0之前出现的字符串长度。sizeof:数据所占内存空间大小。1.sizeof整型数组。2.sizeof字符数组。3.strlen字符数组。关注指针运算,指针类型。
2024-10-20 17:44:39
152
原创 【无标题】
/pf解引用访问4个字节,pf+1也跳过4个字节,但是int*和float*不能通用。//pi解引用访问4个字节,pi+1跳过4个字节。//如果是char*的指针,解引用访问1个字节,+1跳过1个字节。//如果是int*的指针,解引用访问4个字节,+1跳过4个字节。//1.指针类型决定了指针在被解引用的时候访问几个字节。//2.指针类型决定了指针在+-1的时候,跳过几个字节。//口语说指针实际上是指针变量,是用来存放地址的变量。//野指针:指针指向的位置不可知。
2024-10-17 21:05:14
128
原创 冒泡排序与选择排序
void bubble_sort(int arr[], int sz)//地址应该用指针接收,这里arr本质是指针变量,传递arr首元素地址。t = arr[i];
2024-10-14 15:54:16
249
工业智能图像识别检测系统设计方案及其关键技术应用
2025-01-24
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人