dp模型——状态机模型C++详解

文章介绍了如何使用状态机模型解决一道动态规划问题,即大盗阿福在不触发报警的情况下洗劫店铺以获取最大现金。给出了两种解题方法,一种是普通的线性动态规划,另一种是状态机动态规划,并提供了相应的AC代码示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

状态机定义

状态机顾名思义跟状态有关系,但到底有什么关系呢。在实际解决的时候,通常把状态想成节点,状态的转换想成有向边的有向图,我们来举个例子。

相信大家都玩过类似枪战的游戏(没玩过的也听说过吧), 他的每一个人物基本都有几个状态:站立,蹲下,跑步和射击。这就可以构成一个简单的状态机图了。

状态机模型

我们拿例题来分析一下。

例题

1049. 大盗阿福

阿福是一名经验丰富的大盗。趁着月黑风高,阿福打算今晚洗劫一条街上的店铺。

这条街上一共有 N家店铺,每家店中都有一些现金。

阿福事先调查得知,只有当他同时洗劫了两家相邻的店铺时,街上的报警系统才会启动,然后警察就会蜂拥而至。

作为一向谨慎作案的大盗,阿福不愿意冒着被警察追捕的风险行窃。

他想知道,在不惊动警察的情况下,他今晚最多可以得到多少现金?

输入格式

输入的第一行是一个整数 T,表示一共有 T组数据。

接下来的每组数据,第一行是一个整数 N,表示一共有 N家店铺。

第二行是 N个被空格分开的正整数,表示每一家店铺中的现金数量。

每家店铺中的现金数量均不超过1000。

输出格式

对于每组数据,输出一行。

该行包含一个整数,表示阿福在不惊动警察的情况下可以得到的现金数量。

数据范围

1≤T≤50,

1≤N≤

输入样例:
2
3
1 8 2
4
10 7 6 14
输出样例:
8
24
样例解释

对于第一组样例,阿福选择第2家店铺行窃,获得的现金数量为8。

对于第二组样例,阿福选择第1和4家店铺行窃,获得的现金数量为10+14=24。

这道题的大意就是,有t组数据,每个有n个超市,告诉你每一家的价钱,不能盗窃相邻的超市。

计算大盗能获得的最大利益。

解题思路

这道题有两种解法,第一种是普通的线性dp,第二种是状态机dp。

第一种

用f[i]表示前i家商店阿福可以获得的最大价值。

对于第i次选择,只能选偷或者不偷,偷就是f[i - 2] + w[i], 不偷就是f[i - 1]。

状态转移方程就是:

f[i] = max(f[i - 2] + w[i], f[i - 1]);

完整ac代码如下:

#include <bits/stdc++.h>
using namespace std;
const int N = 1e5 + 10, INF = 1e9;
int t, n;
int w[N], f[N];
int main() {
    scanf("%d", &t);
    while(t--) {
        scanf("%d", &n);
        for(int i = 1; i <= n; i++) scanf("%d", &w[i]);
        memset(f, -INF, sizeof f);
        f[0] = 0;
        for(int i = 1; i <= n; i++) f[i] = max(f[i - 2] + w[i], f[i - 1]);
        printf("%d\n", f[n]);
    }
    return 0;
}

第二种就是今天讲到的状态机了,对于第i个超市,可以选择偷或者不偷,我们用1表示偷,0表示不偷(都是当前的超市)。

状态转移方程就是:

f[i][0] = max(f[i - 1][0], f[i - 1][1]);
f[i][1] = f[i - 1][0] + w[i];

ac代码如下:

#include <bits/stdc++.h>
using namespace std;
#define read(a) scanf("%d", &a);
const int N = 1e5 + 10, INF = 1e9;
int t, n;
int w[N], f[N][2];
int main() {
    read(t);
    while(t--) {
        read(n);
        for(int i = 1; i <= n; i++) read(w[i]);
        f[0][0] = 0, f[0][1] = -INF;
        for(int i = 1; i <= n; i++) {
            f[i][0] = max(f[i - 1][0], f[i - 1][1]);
            f[i][1] = f[i - 1][0] + w[i];
        }
        printf("%d\n", max(f[n][1], f[n][0]));
    }
    return 0;
}
<think>嗯,用户想了解ORB-SLAM3的工作原理和详细实现,还有源码解析。首先,我需要回忆一下ORB-SLAM3的基本结构。根据引用[3],ORB-SLAM3使用ORB特征点,结合FAST关键点检测和BRIEF描述子,具有旋转和尺度不变性。那它的系统架构应该包括跟踪、局部建图、闭环检测等模块,可能还支持多传感器融合,比如单目、双目和RGB-D相机,对吧? 用户提到详细实现,可能需要分模块讲解。比如跟踪部分,如何提取ORB特征,如何做初始位姿估计,参考引用[3]里的特征点提取和运动关系分析。然后是局部建图,维护局部地图并进行优化,这里应该用到BA(Bundle Adjustment)和位姿图优化,可能涉及到g2o库或者Ceres Solver之类的优化工具。 闭环检测部分,ORB-SLAM3应该使用词袋模型进行场景识别,比如DBoW2库,然后进行相似变换计算,优化全局地图。另外,IMU的融合可能是在紧耦合的方式下进行的,需要状态估计器如卡尔曼滤波或者预积分技术,这部分在引用[3]中没有详细提到,可能需要结合其他资料补充。 源码结构方面,根据引用[4],ORB-SLAM3可能采用多线程架构,比如Tracking线程、Local Mapping线程、Loop Closing线程,还有Viewer线程。订阅图像话题后,调用GrabImage函数处理图像,启动跟踪流程。需要解释每个线程的功能和交互方式。 关键函数方面,Tracking线程中的Track()函数负责特征匹配和位姿估计,OptimizePose()可能使用非线性优化方法,如g2o中的位姿优化。LocalMapping线程中的CreateNewMapPoints()生成地图点,BundleAdjustment()进行局部优化。LoopClosing线程中的DetectLoop()检测闭环,CorrectLoop()进行闭环校正。 源码解析时,用户可能需要具体代码示例,比如特征提取部分,参考引用[3]中的ORB算法实现。或者跟踪线程中的位姿优化代码,比如如何利用特征点匹配计算相机运动。这里需要注意用户提供的引用[4]提到了订阅图像后的处理流程,可能需要结合这部分代码结构进行说明。 用户可能的问题会涉及ORB-SLAM3与其他版本的区别,比如与ORB-SLAM2相比,增加了IMU和多地图支持,这些在引用[1]和[3]中有提到。另外,特征点提取的优化方法、闭环检测的具体实现,以及多传感器融合的技术细节都是可能的相关问题。 最后,需要确保回答中正确使用LaTeX格式,比如数学公式用$...$或$$...$$,并且引用标识放在适当的位置。比如在提到特征点匹配时,引用[3]中的内容,或者在讨论线程结构时引用[4]的处理流程。同时,生成的相关问题要围绕工作原理、优化方法、应用场景等,帮助用户进一步深入。</think>### ORB-SLAM3 工作原理与实现解析 #### 一、ORB-SLAM3 核心原理 ORB-SLAM3 是一种基于特征点的视觉SLAM系统,支持单目、双目和RGB-D相机,并融合了IMU数据(惯性测量单元)。其核心原理包括: 1. **特征提取与匹配** 使用$Oriented\ FAST$检测关键点,$Rotated\ BRIEF$生成二进制描述子,具有旋转和尺度不变性[^3]。 数学表达:$$ \text{描述子} = \{b_i\}_{i=1}^{256},\ b_i \in \{0,1\} $$ 通过特征匹配建立帧间数据关联,计算相机运动。 2. **多地图与多传感器融合** 支持多地图并行跟踪,通过**紧耦合的视觉-惯性融合**(IMU预积分)提升鲁棒性,数学表达为: $$ \mathbf{T}_{k+1} = \mathbf{T}_k \cdot \exp\left(\int_{t_k}^{t_{k+1}} (\boldsymbol{\omega}_t + \mathbf{b}_g) dt \right) $$ 其中$\boldsymbol{\omega}_t$为角速度,$\mathbf{b}_g$为陀螺仪偏置[^1]。 3. **优化框架** 采用**光束法平差(Bundle Adjustment)**和**位姿图优化**,目标函数为: $$ \min_{\mathbf{T}, \mathbf{X}} \sum_{i,j} \rho \left( \|\pi(\mathbf{T}_i \mathbf{X}_j) - \mathbf{x}_{ij} \|^2 \right) $$ $\rho$为鲁棒核函数,$\pi$为投影模型。 --- #### 二、系统架构与模块实现 ##### 1. 多线程架构(源码结构) - **Tracking线程** 实时处理输入图像,提取ORB特征,通过**运动模型**或**参考关键帧**估计相机位姿。 关键代码片段(C++简化版): ```cpp void Tracking::Track() { ExtractORB(); // 特征提取 if (mState == OK) { if (mVelocity.empty()) PoseOptimization(); // 位姿优化 else TrackWithMotionModel(); // 运动模型跟踪 } UpdateLocalMap(); // 局部地图更新 } ``` - **Local Mapping线程** 维护局部地图,执行局部BA优化,并生成新地图点。 关键操作: - 剔除冗余关键帧 - 三角化新地图点(双目或单目) - 局部BA优化:$$ \min \sum \|\mathbf{x} - \pi(\mathbf{T}\mathbf{X})\|^2 $$ - **Loop Closing线程** 使用DBoW2词袋模型检测闭环,执行**相似变换优化**(Sim3优化): $$ \mathbf{S} = \begin{bmatrix} s\mathbf{R} & \mathbf{t} \\ \mathbf{0} & 1 \end{bmatrix} $$ 通过位姿图优化全局一致性[^2]。 --- ##### 2. 关键实现细节 - **IMU融合**(`IMU Preintegration`模块) 在`PreintegratedIMU`类中实现预积分,避免重复积分: $$ \Delta \mathbf{v} = \mathbf{R}_k^T (\mathbf{v}_{k+1} - \mathbf{v}_k - \mathbf{g} \Delta t) $$ ```cpp class PreintegratedIMU { void IntegrateNewMeasurement(const IMUData &data) { dP += dV * dt + 0.5f * dR * data.acc * dt*dt; dV += dR * data.acc * dt; dR = dR * Sophus::SO3d::exp(data.gyro * dt); } }; ``` - **地图点管理** 地图点通过**共视图(Covisibility Graph)**和**本质图(Essential Graph)**组织,优化时仅更新局部关联节点。 --- #### 三、性能优化与工程实践 1. **特征提取加速** - 使用四叉树分割图像区域,均衡特征分布 - OpenMP并行化计算(源码中`ORBextractor.cc`) 2. **实时性保障** - 关键帧选择策略:仅保留信息量大的帧 - 延迟剔除:非关键线程(如闭环检测)允许延迟执行 ---
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值