线段树成段更新+延迟标记法-杭电3911

本文介绍了一种使用段树进行区间更新与查询的最大子段和问题解决方案。通过定义复杂的数据结构来维护区间内的多种状态,实现了高效地区间翻转操作及最大子段和查询。适用于ACM竞赛等算法挑战。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

#include <iostream>
#include <cstdio>
#include <cstring>
using namespace std;
#define left L,m,rt<<1
#define right m+1,R,rt<<1|1 
#define maxn 100010
struct node
{
	int l1,l0;
	int r1,r0;
	int m1,m0;
	int flag;
	int l,r;
}sum[maxn<<2];
int num[100010];
void up(int rt)
{
	sum[rt].l0=sum[rt<<1].l0;
	sum[rt].r0=sum[rt<<1|1].r0;
	sum[rt].l1=sum[rt<<1].l1;
	sum[rt].r1=sum[rt<<1|1].r1;
	sum[rt].m0=max(sum[rt<<1].m0,sum[rt<<1|1].m0);
	sum[rt].m0=max(sum[rt].m0,sum[rt<<1].r0+sum[rt<<1|1].l0);
	sum[rt].m1=max(sum[rt<<1].m1,sum[rt<<1|1].m1);
	sum[rt].m1=max(sum[rt].m1,sum[rt<<1].r1+sum[rt<<1|1].l1);
	if(sum[rt].l0==sum[rt<<1].r-sum[rt<<1].l+1)
	sum[rt].l0+=sum[rt<<1|1].l0;
	if(sum[rt].r0==sum[rt<<1|1].r-sum[rt<<1|1].l+1)
	sum[rt].r0+=sum[rt<<1].r0;
	if(sum[rt].l1==sum[rt<<1].r-sum[rt<<1].l+1)
	sum[rt].l1+=sum[rt<<1|1].l1;
	if(sum[rt].r1==sum[rt<<1|1].r-sum[rt<<1|1].l+1)
	sum[rt].r1+=sum[rt<<1].r1;
}
void build(int L,int R,int rt)
{
	sum[rt].flag=0;
	sum[rt].l=L;
	sum[rt].r=R;
	if(L==R)
	{
		if(num[L]==1)
		{
			sum[rt].r0=sum[rt].l0=sum[rt].m0=0;
			sum[rt].r1=sum[rt].l1=sum[rt].m1=1;
			
		}
		if(num[L]==0)
		{
			sum[rt].r0=sum[rt].l0=sum[rt].m0=1;
			sum[rt].r1=sum[rt].l1=sum[rt].m1=0;
			
		}
		return;
	}
	int m=(L+R)/2;
	build(left);
	build(right);
	up(rt);
}
void Down(int rt)
{
	if(sum[rt].flag) 
	{
		sum[rt<<1].flag^=1;
		sum[rt<<1|1].flag^=1;
		swap(sum[rt<<1].l0,sum[rt<<1].l1);
		swap(sum[rt<<1].r0,sum[rt<<1].r1);
		swap(sum[rt<<1].m0,sum[rt<<1].m1);
		swap(sum[rt<<1|1].l0,sum[rt<<1|1].l1);
		swap(sum[rt<<1|1].r0,sum[rt<<1|1].r1);
		swap(sum[rt<<1|1].m0,sum[rt<<1|1].m1);
		sum[rt].flag=0;
	}
}
void update(int rt,int a,int b)
{
	if(a<=sum[rt].l&&b>=sum[rt].r)
	{
		swap(sum[rt].l0,sum[rt].l1);
		swap(sum[rt].r0,sum[rt].r1);
		swap(sum[rt].m0,sum[rt].m1);
		sum[rt].flag^=1;
		return;
	}
	Down(rt);
	int m=(sum[rt].l+sum[rt].r)/2;
	if(a<=m)
	{
		update(rt<<1,a,b);
	}
   	if(b>m)
    	update(rt<<1|1,a,b);
	up(rt);
}
int GetSum(int rt,int a,int b)
{
	if(sum[rt].l==a&&sum[rt].r==b)
		return sum[rt].m1;
	int m=(sum[rt].l+sum[rt].r)/2;
	Down(rt);
	if(b<=m)
	return GetSum(rt<<1,a,b);
	else if(a>m) return GetSum(rt<<1|1,a,b);
	else 
	{
		int lmax=0,mmax=0,rmax=0;
		mmax=min(m-a+1,sum[rt<<1].r1)+min(b-m,sum[rt<<1|1].l1);
		lmax=GetSum(rt<<1,a,m);
		rmax=GetSum(rt<<1|1,m+1,b);
		return max(lmax,max(mmax,rmax));
	}
}
int main()
{
	int n,i,j,x,a,b,M;
	while(~scanf("%d",&n))
	{
		for(i=1;i<=n;i++)
		{
			scanf("%d",&num[i]);
		}
		build(1,n,1);
	
		scanf("%d",&M);
		for(i=1;i<=M;i++)
		{
			scanf("%d %d %d",&x,&a,&b);
			if(x==1)	
			{
			update(1,a,b);
			}
			else 
			printf("%d\n",GetSum(1,a,b));
		}
	}
return 0;
}

<think>好的,我现在要处理用户关于Android 12中RKNN开发配置和使用教程的问题。首先,我需要回顾用户提供的引用内容,看看是否有相关的信息。 用户提供了三个引用。引用1提到了RKNN Model Zoo和RKNN Toolkit2的环境配置,包括安装Miniconda3。引用2是关于系统镜像下载,特别是Ubuntu 22.04版本和导出ONNX模型。引用3讨论了RV1808/1126使用RKNN作为MediaPipe推理后端的步骤,包括配置参数如use_rga、use_mmap和data_type的设置,以及反量化的处理。 用户的问题集中在Android 12上,所以需要将引用中的信息与Android系统关联起来。引用3提到了MediaPipe和RKNN的集成,这可能适用于Android开发,但需要确认是否支持Android 12。此外,RKNN Toolkit2的环境配置可能在不同平台上有所不同,用户可能需要针对Android进行调整。 接下来,我需要考虑Android开发中RKNN的一般步骤,比如环境准备、模型转换、集成到Android应用、配置参数和性能优化。结合引用中的信息,模型转换部分可以参考引用2提到的导出ONNX模型,然后使用RKNN Toolkit转换为RKNN格式。引用3中的配置参数(如use_rga、use_mmap、data_type)可能在Android中同样适用,但需要查阅相关文档确认。 可能还需要指导用户如何将RKNN库集成到Android项目中,比如添加依赖项或NDK配置。此外,性能优化方面,引用3提到的反量化处理可能需要特别注意,尤其是在Android设备上的实现。 最后,确保回答结构清晰,分步骤说明,并引用提供的资料。需要验证引用中的信息是否适用于Android 12,例如系统镜像是否支持,或者是否有特定版本的要求。如果某些步骤在引用中没有明确说明,可能需要提示用户参考官方文档或社区资源。</think>### Android 12 RKNN 开发配置与使用教程 #### 1. **环境准备** - **系统镜像与工具链**: 根据引用[2],建议使用Ubuntu 22.04作为开发环境,并下载Orange Pi 5 Pro等支持RKNN的硬件镜像。对于Android 12开发,需确保RKNN Toolkit2适配Android NDK版本(推荐NDK 21+)[^2]。 - **安装RKNN Toolkit2**: 参考引用[1],通过Miniconda3配置Python环境(建议Python 3.8),并安装RKNN Toolkit2以支持模型转换与推理。命令示例: ```bash pip install rknn_toolkit2 ``` #### 2. **模型转换(ONNX转RKNN)** - **导出ONNX模型**: 使用PyTorch或TensorFlow等框架导出模型为ONNX格式(引用[2])。 - **转换为RKNN格式**: 编写RKNN配置文件(`config.yml`),指定输入尺寸、量化方式等参数。示例代码: ```python from rknn.api import RKNN rknn = RKNN() rknn.config(target_platform='rk3568', mean_values=[[127.5]], std_values=[[127.5]]) rknn.load_onnx(model="model.onnx") rknn.build(do_quantization=True, dataset="dataset.txt") rknn.export_rknn("model.rknn") ``` #### 3. **Android项目集成** - **添加RKNN库依赖**: 将编译好的RKNN动态库(`librknnrt.so`)和模型文件(`model.rknn`)放入Android项目的`jniLibs`目录。 - **JNI接口开发**: 通过JNI调用RKNN的C/C++ API实现推理。关键配置参考引用[3]: ```cpp #include <rknn/rknn_runtime.h> rknn_context ctx; int ret = rknn_init(&ctx, model_path, 0, 0, nullptr); ret = rknn_inputs_set(ctx, input_num, input_attrs); ret = rknn_run(ctx, nullptr); ret = rknn_outputs_get(ctx, output_num, output_attrs, nullptr); ``` #### 4. **关键配置参数** - **use_rga与use_mmap**: 根据引用[3],若Android设备不支持硬件加速(如RGA),需将`use_rga`和`use_mmap`设为`false`。 - **数据量化类型**: `data_type`可选`uint8`或`fp32`。若选`uint8`,需手动实现反量化;若选`fp32`,RKNN会自动处理[^3]。 #### 5. **性能优化** - **多线程推理**: 利用Android的`ThreadPoolExecutor`并行处理输入数据。 - **内存优化**: 启用`use_mmap`(若支持)减少内存拷贝开销,或通过零拷贝技术直接操作物理内存。 #### 6. **调试与验证** - **日志输出**: 启用RKNN的调试模式(`RKNN_LOG_LEVEL=DEBUG`)查看详细运行信息。 - **性能分析**: 使用`rknn.query(RKNN_QUERY_PERF_DETAIL)`获取各层耗时,针对性优化模型结构。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值