- 博客(81)
- 资源 (1)
- 收藏
- 关注

原创 《刘嘉·概率论22讲》学习笔记(完)
00.发刊词:学一门让你抓住未来的学问未来是不确定的,只要涉及到选择,涉及到决策,就一定会用到概率思维。用概率思维进行决策的第一步,就是要把现实问题,变成一个对的概率问题。概率论的四大基石——随机、概率、独立性和概率计算。01.全局:从局部随机性到整体确定性概率论解决随机问题的本质,就是把局部的随机性转变为整体上的确定性。概率论的产生,能对未来发生的随机事件做出数学上确定的判断。某一次结果的随机,是低层次的事;而概率论,是高层次的、确定性的认知。02.随机:随机性不等于不确定性随机
2021-04-24 13:26:35
6203

原创 《吴军·数学通识50讲》学习笔记(完)
发刊词:数学到底怎么学? 数学是一种抽象的知识体系,而我们人要靠经验感知才能认识世界,这中间需要一个桥梁。 构建通往数学的桥梁,把熟悉的知识点各安其位,放进知识体系里。 在介绍这些关键数学知识点的同时,会讲清楚它们在数学上的位置,以及和各种知识体系的相关性。 通过学习数学,实现思维方式的跃进。 一个学好数学最重要的方法是,不断训练自己的思维方式。 01.导论:数学通识课的体系和学习攻略 数学的各个分支,从体系到研究方法,再...
2021-03-27 17:46:28
19158
原创 强化学习(赵世钰版)-学习笔记(完)(10.Actor-Critic方法)
最后是确定性的(Deterministic)Actor-Critic算法,之前的算法可以成为随机版本的,因为每个状态下各行为发生的概率都不为零。其中这个行为值的获取方法有两种,一个是用MC的方法获取(上节课介绍的),叫REINFORCE方法。这个是A2C算法的伪代码,这是个On-Policy的算法,因为用到的采样数据,也是用这个策略得到的。对A2C算法的方程进行数学变换,也能获取到一个β,跟上节课一样,可以调节探索与开发的比重。这是本课程的最后一课,讲的是在基于策略的基础上,添加基于值相关的内容。
2025-03-20 17:11:07
297
原创 强化学习(赵世钰版)-学习笔记(9.策略梯度法)
第二是如何解释这个方法,在基于梯度上升的迭代法中,对表达式进行整理,加号的右边可以变成这样,α是学习率,β_t是一个时间序列上的数,但是跟梯度无关,第三部分是梯度。策略梯度法的思路其实很简单,第一步是构建一个衡量最优策略的方法(类似于优化理论中的目标函数),第二步是用基于梯度的优化方法找寻最优策略。之前的方法,描述一个策略都是用表格的形式,每一行代表一个状态,每一列代表一个行为,表格中的元素对应相关状态下执行相关行为的概率。衡量的方法确定后,就要根据衡量的方法,确定给予梯度的优化方法。
2025-03-19 17:06:46
421
原创 强化学习(赵世钰版)-学习笔记(8.值函数方法)
而函数形式的优点很明显,比如有10000个点,表格形式需要存储10000个数据,而用函数形式,仅需保存几个参数值,存储压力较小,且有泛化能力(可以生成新的样本点)。可以提升函数的阶数,从而增加函数的拟合能力。我们在这里用两个函数分别代表真实的状态值和估计出来的状态值,那么问题就变成了一个优化问题,找寻一个最优参数w,使得两者之间的意义是最小的,这样估计值就能尽可能的近似真实值。本章是算法与方法的第四章,是TD算法的拓展,本质上是将状态值与行为值的表征方式,从离散的表格形式,拓展到了连续的函数形式。
2025-03-18 21:59:52
714
原创 强化学习(赵世钰版)-学习笔记(7.时序差分学习)
Q-Learning是Off-policy,而Saras和MC都是On-policy,因为需要计算的策略,用到的数据都是相同的策略生成的,同时也是个策略问题,都是通过迭代找到最优策略的。TD算法更新状态值的公式,可以展开来看。TD算法适用于计算状态值的算法,对应计算行为值的类似算法叫做Saras(state-action-reward-state-action的缩写),其表达式为。本章是课程算法与方法中的第四章,介绍的时序差分学习算法是基于随机近似方法设计的强化学习方法,也是model-free的方法。
2025-03-13 23:42:49
440
原创 强化学习(赵世钰版)-学习笔记(6.随机近似与随机梯度下降)
简单示例给了一个正切函数,可以看出这个误差乘以系数后,差异可以对原估计值进行修正,最后总会收敛到目标点,严格意义的证明没仔细看,太数学化,很繁琐。将这个估算期望值的增量方法进行泛化,可以获得一个随机近似的通用算法,深度学习中的随机梯度下降法,本质上也是这类随机近似的算法。这里证明了该思路的可行性,在数据增加的过程中,期望值变化的规律,可以看出添加一个新的采样后,期望值的变化是有规律的。Robbins-Monro算法的形式如下,各项的解释图中也包含,其实形式跟随机梯度下降是一样的,所以看起来很眼熟。
2025-03-11 20:10:17
635
原创 强化学习(赵世钰版)-学习笔记(5.蒙特卡罗法)
MC Basic算法是基于蒙特卡罗算法的相对最简单的方法,它是基于值迭代法改进的方法,将其中的行为值计算这一步,改用采样的样本进行估计,而不是直接用模型参数计算(因为模型参数可能是未知的)。常用的策略分为两种,一个是确定性的策略,比如贪心策略,每次都选概率最大的。一个是随机性策略,比如软策略。为什么要引入软策略,目的就是一个回合足够的长,那么就会访问到所有的状态-行为对,这样就避免了大量的回合采样(只跑少量的几个回合,就访问到了所有的状态-行为对),因此这个Exploring Starts就可以取消掉了。
2025-03-10 16:43:33
943
原创 强化学习(赵世钰版)-学习笔记(4.值迭代与策略迭代)
所以在做策略迭代的时候,这里要设置一个阈值j,迭代次数大于J的迭代操作予以舍弃,这叫做截断的策略迭代算法(truncated policy iteration algorithm)。策略迭代的初始是一个随机的策略,值迭代的初始是一个随机的状态值。因为采用贪心的思路,这个新的值V_k+1等价于最优的行为值(行为值最大的行为,采用的概率为100%,其余的为0%,就能得到最大值)。第四步的计算是有差异的,策略迭代这里是要用一个无穷步迭代算法计算这个策略值,而值迭代这里只是一个一步的迭代运算。
2025-03-09 20:07:06
793
原创 强化学习(赵世钰版)-学习笔记(3.最优策略与贝尔曼最优方程)
这个方程中的r,p(r|s,a),p(s'|s,a)等都是已知的,这表明整个环境信息是已知的,各状态的状态值是未知的,状态值的作用就是用于衡量两个策略之间的优劣,如果对于同一个环境下,对于所有的状态s,策略Pi1的状态值均大于策略Pi2,则可以说策略Pi1由于策略Pi2,以下是相关的数学描述。贝尔曼最优方程,可以记作一个关于状态值v的方程,就是下面的v=f(v),因为前面的R_pi是当前状态下动作值的最大值(前面证过了)。可以据此优化现有的策略,将策略在S1上的行为进行修改,从而增加整个策略的状态值。
2025-03-08 11:07:30
385
原创 强化学习(赵世钰版)-学习笔记(2.状态值与贝尔曼方程)
然后是未来回报的期望,可以分解为当前状态采用各动作的概率,乘上每个动作跳转到各状态的概率(不一定跳转到固定的状态),及新状态的回报值(下面公式最后一行,从右向左看)。状态转移的方向,每次转移的回报,每个状态采取的动作等,都可以是一个概率分布。Vpai是各状态的State Value,Rpai是各状态的奖励值,Ppai是一个状态转移矩阵,记录了状态之间的转移概率。首先是当前奖励的期望,可以拆分为在当前状态下,采用各自动作的概率,乘上每个动作带来回报的期望(因为相同状态,相同动作,获得的奖励也不一定是个定值)
2025-03-07 21:59:25
882
原创 强化学习(赵世钰版)-学习笔记(1.基础概念)
常用的例子是这种网格环境下的机器人路径探索,网格的类型分为“可进入”、“不可进入”、“目标”和“边界”等,目标是从任意起始点,找到一条到目标点的“最优”路径,“最优”的意思就是整条路径是得分最高的。策略(Policy):策略指的是智能体在某个状态下,采取的行动(可以采取的行动有很多,但是有好坏之分,策略指的是当前状态下建议采取的行动)。条件是当前的状态和所要采取的行动,given符号前是得到的奖励值,而概率值是在当前状态下采取对应的行动,获得对应奖励值的概率值。
2025-03-07 11:13:02
803
原创 C++倍福PLC通讯库
前段时间用上位机与倍福PLC通讯,调试通过了,代码发出来,大家一起学习。CPP文件,其中的异常捕获机制是我自己写的,参考的朋友需要自行修改。
2024-08-25 09:58:45
561
原创 Dual-Branch Cross-Attention Network for Micro-Expression Recognition with Transformer Variants阅读笔记
另一方面,光流信息提供了帧与帧之间的连续性信息,有效地保持了ME序列的一致性,减少了噪声和不连续的干性。为了方便不同信息类型之间的有效交互,我们设计了交叉注意力块( cross attention block,CAB ),它是一种用于不同特征表示之间交互和信息传播的注意力机制。CNN的缺点:通过分层与共享权重的卷积核,CNN倾向于局部信息,容易忽略上下文的关联性和全局信息的作用。传统手工方法其特征表示是场景受限的,缺乏对ME细微差别的关注,这是传统手工特征的缺陷。
2024-08-18 19:34:04
876
1
原创 Facial Micro-Expression Recognition Based on DeepLocal-Holistic Network 阅读笔记
针对微表情短暂且强度低的特点,微表情数据在空间和时间域中都是稀疏的。因此,借鉴Wang等人的思想,将微表情中的细微动作信息视为所需的E,将噪声视为A,采用RPCA从微表情帧中提取稀疏信息,然后将提取的信息馈送到RPRNN,学习微表情的稀疏和整体特征。然而,微表情样本数量少且微表情的微妙短暂特性限制了深度学习与微表情识别方法的结合,因此,如何有效学习微表情特征对于进一步提高性能至关重要。深度本地-整体网络通过HCRNN和RPRNN的融合,捕获了局部-整体、稀疏-丰富的微表情信息,并提高了微表情识别的性能。
2024-04-10 11:40:01
1123
1
原创 Transformers in Vision:A Survey 阅读笔记
Visual Grounding with Transformer[206]具有编码器-解码器架构,其中视觉标记(从预训练的CNN模型中提取的特征)和文本标记(通过RNN模块解析)在编码器的两个不同分支中并行处理,具有跨模态注意力,以生成文本引导的视觉特征。尽管有人可能认为像Transformer模型这样的架构应该是通用的,可以直接应用于各个领域,但我们注意到,预训练这些模型所需的高计算成本和时间成本需要新的设计策略,使它们在视觉问题上的训练更具成本效益。
2024-04-03 16:41:53
1184
原创 Integrating VideoMAE based model and Optical Flow for Micro- and Macro-expression Spotting 阅读笔记
VideoMAE 是基于视频掩模自编码器的自监督视频预训练方法,旨在利用视频的时间维度作为静止图像的时间演变,并解决视频中的语义冗余和时间相关性。如图1中的总体框架图所示,我们的方法分为3个部分:数据集预处理、基于VideoMAE的自监督训练、区间融合和后处理策略。该方法的目标是自动识别微表情和宏观表情。我们通过训练多个宏观和微观表情模型,采用不同的细粒度和生成不同长度的表情片段,探索最佳的组合方法。一般而言,与微表情相关的任务主要包括两个方面:长视频中的微表情识别和微表情片段中的情绪识别。
2024-03-26 09:57:05
775
1
原创 Three Stream Graph Attention Network using Dynamic Patch Selection for the classification ofME 阅读笔记
对于图网络的第一流,节点特征向量是面部地标点的 x 和 y 位置坐标,用于理解每个地标点相对于其先前位置的运动变化。在计算了每个关键点上的光流特征矩阵后,对特征矩阵进行了零填充,使其变成10×10的补丁大小,以便简化计算。光流幅度特征向量是图网络的第二个流的输入,而光流方向特征向量是图网络的第三个流的输入。然后,根据节点的注意力分数以及所选的池化比率 k,选择保留在图中的前 k 个节点。1.微表情具有微妙而短暂的行为特征。基于保留节点及其之间的连接,创建新的特征矩阵和新的邻接矩阵,形成新的图结构。
2024-03-13 13:48:00
750
原创 3D-CNN FOR FACIAL MICRO-AND MACRO-EXPRESSIONSPOTTING ON LONG VIDEO SEQUENCES USING TEMPORALORIEN阅读笔记
漂移误差是光流方法的一个挑战,尤其是在需要准确追踪物体长时间运动的应用场景中,如高帧率宏表情的分析。这有助于捕捉图像中的局部特征。它的主要作用是通过去除信号中的高频噪声,同时保留低频信号,来平滑或清除信号中的不需要的频率成分。我们提出了一个基于3D-CNN的两流网络(如图1所示),利用ME和MaE的持续时间差异,通过在每个流中使用不同数量的跳帧来使一个网络对ME更敏感,另一个对MaE更敏感。我们注意到先前的尝试缺乏基于持续时间的分析,因此提出了一个基于两者持续时间差异的两流网络,用于微表情和宏表情的识别。
2024-03-12 06:03:04
896
原创 Facial Micro-Expressions:An Overview 阅读笔记
ME生成是ME分析的新方向,尽管当前生成的ME质量尚不够逼真,但进一步的研究预计将在其他ME分析方面发挥作用,如MER、ME检测和ME AU检测,同时也可用于增强现实、人机交互等领域。早期的自发微表情(ME)数据集主要包含前方的2D视频,因为这相对容易收集和分析,导致大多数现有的ME方法只能分析前方面部,并无法处理现实世界应用中的挑战,如光照变化、遮挡和姿态变化。为了在长视频中区分MaEs和MEs,提出了基于频率的ME定位方法,通过利用频率域中的信息来定位ME序列中的顶点帧,这可以反映面部变化的速率。
2024-03-06 10:59:02
1097
原创 MESNet:A Convolutional Neural Network forSpotting Multi-Scale Micro-ExpressionIntervals 阅读笔记
通过多尺度分析,如不同长度的归一化或多尺度视频采样,基于间隔的定位方法可以适应和检测不同长度的ME片段,并更好地区分ME和其他类型的面部运动。每个子网络相当于在视频上滑动的固定长度窗口,其输出是一组概率,表示与滑动窗口对应的视频片段属于ME的可能性。目前的研究仍然面临一个挑战,即如何从有限的数据中有效地提取或学习最具代表性的时空特征,从而准确地定位长视频中的ME时间位置。微表情研究初期,仅考虑在收集微表情样本时仅记录发生微表情时的视频片段,即所谓的短视频,包括微表情发生前几帧和发生后几帧。
2024-03-02 14:23:46
1109
1
原创 Data Leakage and Evaluation Issues inMicro-Expression Analysis 阅读笔记
碎片化指的是评估协议或方法的分散、零散,导致评估过程不一致或无法比较不同模型的性能。为了解决这个问题,作者梳理了常见的陷阱,提出了一个新的标准化评估协议,使用了超过2000个微表情样本的面部动作单元,并提供了一个实现标准化评估协议的开源库。在训练过程中使用测试数据的信息可能导致较大的正向偏差,但这种正向偏差是误导性的,不代表可泛化的性能,特别是当一个折叠只是一个单独的主体时。然而,最近我们注意到了一个令人担忧的趋势,即出现了极高但不可靠的性能,接近完美表现,并在分析可用源代码时出现了潜在的评估问题。
2024-02-27 13:00:05
649
原创 Geometric Graph Representation with Learnable Graph Structure and Adaptive AU Constraint 阅读笔记
然而,一方面,现有的基于特征点的图聚合动态信息的工作,如光流和放大的形状特征,仍然需要花费大量的计算成本来提取这些特征。相反,人脸特征点是一种更紧凑的模态,可以为MER保留具有判别性的几何特征,并取得了良好的性能。总体而言,在较早的层中,AAU损失约束模型侧重于从人脸特征中学习高层的AU特征,而在较深的层中,则侧重于从高层的AU特征中学习高层的ME特征。我们提供了一种简单高效的方法,直接将基于特征点坐标的几何特征作为节点特征,而不是提供复杂且昂贵的外观特征或不易获取的AU特征。
2024-02-22 10:56:04
678
原创 探索虚拟世界的程序员之路
通过编程,我感受到了黑客精神的力量,同时也深信编程不仅是技术的追求,更是一种思考和改变世界的方式。电影中,虚拟现实与现实生活交织在一起,主人公尼奥(Neo)通过编程技能的提升和对虚拟代码的理解,逐渐揭示了人类所处的“矩阵”世界的真相。《社交网络》揭示了互联网巨头的创业之路,《源代码》带你穿越时间解救世界,这些电影不仅带我们穿越到科技的前沿,还揭示了计算机科学背后的故事和挑战。随着时间的推移,我的编程技能逐渐提升,我开始参与更复杂的项目,涉足信息安全领域,深耕人工智能的研究。
2024-02-20 11:07:35
378
原创 CMNet:Contrastive Magnification Network for Micro-Expression Recognition 阅读笔记
随机灰度,这个方法是将图像转换为灰度图,并且这个转换的过程是随机的。在我们的方法中,我们采用了这个测试来校准提取的强度线索,以符合所建立的原型的变化。获取负样本的三种方法,第一种是全都取,第二种的相同的概率抽取,第三种先计算锚定帧与其他帧之间的差异,再将差异通过softmax转换成概率。作为强度的一种表示,特征向量被独立地提取出来,并受到一个损失的约束,在这个过程中,网络实现了强度增强。AAAI 2023的一篇文章,东南大学几位老师的工作,用于做微表情识别中的运动增强工作, 以下是阅读时记录的笔记。
2024-02-19 22:49:41
1124
原创 Feature refinement 的阅读笔记
利用双流Inception网络作为骨架进行表情共享特征学习,利用带有注意力机制的表情提议模块进行表情特异性特征学习,利用融合的表情细化特征进行标签预测。在未来的研究中,我们将考虑一种端到端的MER方法,寻找更有效的方法来丰富微表情样本,并从大规模数据库中使用迁移学习来为MER带来好处。与MER中现有的深度学习方法侧重于学习表情共享特征不同,我们的方法旨在通过表情特征学习和融合来学习一组表情精化特征。本文的贡献是,提出了一个新颖的特征提纯方法,一个表达能力较强的特征学习与融合的方法,用于微表情识别。
2024-02-03 11:39:02
876
原创 深度视觉目标跟踪进展综述-论文笔记
尽管以上的双路网络方法在视频目标跟踪中取得了很大的成功,但是仍然存在缺陷,缺少在线更新过程.MemTrack、Meta-Tracker、Re2EMA、UpdateNet和GradNet等, 提出了不同的模板更新算法。双路网络框架(SiamFC),此方法利用卷积网络提取目标模板和搜索区域的特征,然后再进性相关操作生成响应图,其中响应图上的峰值点就是目标所在的位置。深度学习提取特征的特点是,高层的语义特征对于目标的抽象表达能力很强,而低层的模型特征擅长刻画目标的纹理、形状等底层信息.。
2024-01-25 11:31:35
857
1
原创 LaTex+VSCode开发中中文目录的解决方法
最近改用LaTex+VSCode完成书稿的写作,感觉比TexStudio好用一些。安装完LaTex Workshop后,发现如果书稿的目录包含中文,则无法直接识别,编译的时候都是乱码。3.找寻LaTex-workshop-LaTex:Tools,点击下面的Edit in settings.json。4.将里面所有参数的"%DOC%"都替换成,"%DOCFILE%"。在网上搜了一下,最后终于解决了,记录一下过程,希望能帮到大家。1.点开LaTex Workshop的设置界面。5.保存并重启软件,就能用了。
2024-01-22 15:31:44
1088
原创 以太网转RS485通讯类库封装
最近选用有人科技的以太网转RS485模块做项目,设备真漂亮,国货之光。调通了通讯的代码,发到网上供大家参考,多多交流。
2023-12-30 12:02:02
622
原创 基于深度学习的视觉目标跟踪进展综述
尽管以上的双路网络方法在视频目标跟踪中取得了很大的成功,但是仍然存在缺陷,缺少在线更新过程.MemTrack、Meta-Tracker、Re2EMA、UpdateNet和GradNet等, 提出了不同的模板更新算法。双路网络框架(SiamFC),此方法利用卷积网络提取目标模板和搜索区域的特征,然后再进性相关操作生成响应图,其中响应图上的峰值点就是目标所在的位置。深度学习提取特征的特点是,高层的语义特征对于目标的抽象表达能力很强,而低层的模型特征擅长刻画目标的纹理、形状等底层信息.。
2023-11-28 16:00:14
472
原创 无人机自主飞行实战入门-第一课(简介)
传统飞控基于STM32架构设计,无法满足更智能功能所需的计算量,飞控是为了无人机位姿控制所设计,人类操控依然in the loop。旋翼与固定翼的结合体,通过旋翼部分完成起降,在实际工作阶段使用固定翼动力模型完成飞行任务。• 读取飞控输出的 PWM 脉宽调制信号 , 根据收到的PWM信号调整换相频率,从而驱动电机完成速度的转换。以螺旋桨旋转作为升力的主要提供办法,通过调整螺旋桨转速来维持无人机姿态的无人机。• Arduino 开源飞控,是由六位意大利交互设计学院的同学,于2005年开发创办开发。
2023-08-26 09:27:43
1033
原创 从零实战SLAM-第十课(回环检测与建图)(完)
验证两帧之间的相似度,有以下几种常用的策略,其中基于外观的方法是主流,核心在于衡量两帧图像之间的相似度。SLAM的前段和后端都存在误差,因为建图与定位是耦合的,所以整个误差会积累。➢ 对每一个样本,计算与每个中心点之间的距离,取最小的作为它的归类;➢ 思路:相邻关键帧是相似的,而回环的相似度应该约等于相邻关键帧。BoW的字典生成问题亦属于其中之一,N个特征点,归为k个单词。回环检测是通过检测出之前去过的地点,对预测的轨迹进行修正。➢ 只看 Word 的有无,无视 Word 的顺序。
2023-08-17 12:08:13
596
原创 从零实战SLAM-第九课(后端优化)
渐进式的作用是根据观测的结果,修正自己对位姿的估计。没有观测,则随着机器人的移动,自身的位姿误差会越来越大。在七月算法报的班,老师讲的蛮好。后端的目标:从带噪声的数据估计内在状态——状态估计问题。在SLAM中使用Bundle Adjustment,用来做关键帧和地图的管理。➢ 保持当前状态的估计,在加入新信息时,更新已有的估计(滤波)➢ 给定一定规模的数据,计算该数据下的最优估计(优化)则k时刻的位姿,与原始位姿、运动序列和观测序列有关。其中,卡尔曼滤波用在线性模型、高斯噪声的情况之下。
2023-08-16 13:47:16
660
原创 从零实战SLAM-第八课(非特征点的视觉里程计)
光流: 追踪源图像某个点在其他图像中的运动。本质→估计像素在不同时刻图像中的运动。➢ 每次使用了 Taylor 一阶近似,在离优化点较远时效果不佳,往往需要迭代多次。在七月算法报的班,老师讲的蛮好。❑ 稀疏光流:计算部分像素运动 ---- Lucas Kanade。❑ 稠密光流:计算全部像素运动 ---- Horn Schunck。➢ 要使优化成立,必须保证从初始估计到最优估计中间的梯度一直下降。➢ 可以用于跟踪图像中的稀疏关键点的运动轨迹。➢ 半稠密直接法:使用部分梯度明显的像素。
2023-08-15 17:47:23
999
原创 从零实战SLAM-第七课(多视角几何)
其中,P为三维空间中的一个路标,P在图像𝐼1与𝐼2的投影: 𝑝1, 𝑝2;𝑂1𝑃,𝑂2𝑃在对方图像上的投影: 𝑒2𝑝2(𝑙2),𝑒1𝑝1(𝑙1);PnP的作用:已知3D点的空间位置和相机上的投影点,求相机的旋转和平移(外参)。❖ 如果匹配的是 RGB-D图,得到 3D-3D 间的关系 ----ICP。❖ 如果只有两个单目图像,得到 2D-2D 间的关系 ----对极几何。❖ 如果匹配的是帧和地图,得到 3D-2D 间的关系 ----PnP。Epipolar Plane: 𝑂1𝑂2𝑃 ----极平面。
2023-08-15 10:31:43
304
原创 从零实战SLAM-第六课(特征点匹配)
4. 在选取的圆上,若有连续的𝑁个点的亮度大于𝐼𝑝 + 𝑇或小于𝐼𝑝 − 𝑇 :像素𝑝:特征点(𝐹𝐴𝑆𝑇 − 9、𝐹𝐴𝑆𝑇 − 11、𝐹𝐴𝑆𝑇 − 12)其中SLAM用的最多的是ORB,其他几个的速度都太慢,无法满足实时性。计算了特征点的主方向,为后续的BRIEF 描述子增加了旋转不变特性;特征点:能够在其他含有相同场景或目标的相似图像中以一种相同的或至少非常相似的不变形式表示图像或目标。Efficiency: 同一图像中,特征点的数量应远小于像素的数量。本质是通过连续两帧的图像,估算相机位姿的变化。
2023-08-14 17:31:47
238
原创 从零实战SLAM-第五课(最小二乘法)
在七月算法报的班,老师讲的蛮好。所谓的图优化,就是把一个常规的优化问题,以图(Graph)的形式来表述。比如机器人在空间中移动,并观察几个路标的,可以简化出一个图。图优化的作用就是将其抽象成一个图结构,用图的形式描述这个问题。首先是用平方和来衡量设计的模型与实际数据之间的差异。批量法:一次性给定所有的数据,以此估计所有的变量。SLAM中的两个关键模型,运动模型与观测模型。牛顿法与高斯牛顿法的区别在增量方程。优化的目的就是拟合出最理想的轨迹。,感兴趣的同学可以学习一下。L-M法与高斯牛顿法的区别。
2023-08-14 12:00:54
126
原创 从零实战SLAM-第四课(相机成像及常用视觉传感器)
是指成像过程中所产生的图像像元的几何位置相对于参照系统(地面实际位置或地形图)发生的挤压、伸展、偏移和扭曲等变形,使图像的几何位置、尺寸、形状、方位等发生改变。内参矩阵通过相机标定即可获取,或出厂时厂家提供,SLAM需要解决的是几个外参矩阵的计算。图像中的一个点,世界坐标系上一条射线上的点均匹配,所以说丢失了距离信息。相机的内参矩阵,用于计算世界坐标系与像素坐标系之间的转换。世界坐标系、相机坐标系与像素坐标系之间的关系。双目相机的原理及计算距离的方法。图像变形与畸变的分类。
2023-08-14 09:57:05
855
原创 从零实战SLAM-第三课(李群与李代数)
SO(3) 和 SE(3) 只有定义良好的乘法,没有加法,所以难以进行取极限、求导等操作。问题出现在这里,当做优化时,对矩阵进行求导,但是变换矩阵和旋转矩阵加个deltaR,结果不是变换矩阵(因为对加法不封闭)其中Xk-1为上一个时刻的位置,Uk为当前时刻的操作,Xk为当前的位置,Wk为噪声。回到之前的问题,矩阵R无法求导,因为加上deltaR,就不是旋转矩阵和平移矩阵了。群的定义:群(G)是一种代数结构,集合(A)+运算(·): 𝐺 = (𝐴,·);反对称矩阵是指,对角线两侧元素的绝对值相同,符号相反。
2023-08-12 10:43:22
198
原创 从零实战SLAM-第二课(SLAM中的基础数学)
向量的内积,也叫做点乘,是逐点相乘后累加,最终结果是一个标量,物理意义是一个向量在另一个向量上的投影。当某一个轴旋转90°,有两个轴的对应平面重合,则此情况下两个旋转的效果是一样的,这种情况叫做万向锁。为了避免万向锁对旋转计算的影响,SLAM中一般使用四元数来提起欧拉角描述旋转,当然本质是一样的。坐标系的变换包括平移和旋转,平移是对原点的平移,旋转是绕着三个轴旋转。外积,也叫做叉乘,两个向量拼起来成,结果是一个矩阵,物理意义是旋转。假设有一个旋转轴为n,角度为θ的旋转,显然,它对应的旋转向量为θn。
2023-08-11 22:20:26
235
空空如也
PaddleOCR-v3-onnxrun-cpp-py项目部署
2023-09-05
TA创建的收藏夹 TA关注的收藏夹
TA关注的人