A.虚数

  定义虚单位iii是满足方程z2+1=0z^2+1=0z2+1=0的两个根之一。(另一个根是−i-ii)。通常写为i=−1i=\sqrt{-1}i=1
复数zzz和其复共轭zˉ\bar zzˉ被写为
z=x+iy,zˉ=x−iyz=x+i y, \quad \bar{z}=x-i yz=x+iy,zˉ=xiy其中x,yx,yx,y是实数。xxx被称为实部yyy虚部,并记为:
x=Re⁡z,y=Im⁡zx=\operatorname{Re} z, \quad y=\operatorname{Im} zx=Rez,y=Imz

二者可以zzzzˉ\bar zzˉ的线性组合构造出来:
Re⁡z=12(z+zˉ),Im⁡z=12i(z−zˉ)\operatorname{Re} z=\frac{1}{2}(z+\bar{z}), \quad \operatorname{Im} z=\frac{1}{2 i}(z-\bar{z})Rez=21(z+zˉ),Imz=2i1(zzˉ)

  复数的指数函数可以用泰勒展开进行计算。eiθ=1+(iθ)+(iθ)22!+(iθ)33!+(iθ)44!+(iθ)55!⋯=(1−θ22!+θ44!−…)+i(θ−θ33!+θ55!+…)=cos⁡θ+isin⁡θ\begin{aligned} e^{i \theta} &=1+(i \theta)+\frac{(i \theta)^{2}}{2 !}+\frac{(i \theta)^{3}}{3 !}+\frac{(i \theta)^{4}}{4 !}+\frac{(i \theta)^{5}}{5 !} \cdots \\ &=\left(1-\frac{\theta^{2}}{2 !}+\frac{\theta^{4}}{4 !}-\ldots\right)+i\left(\theta-\frac{\theta^{3}}{3 !}+\frac{\theta^{5}}{5 !}+\ldots\right)=\cos \theta+i \sin \theta \end{aligned}eiθ=1+(iθ)+2!(iθ)2+3!(iθ)3+4!(iθ)4+5!(iθ)5=(12!θ2+4!θ4)+i(θ3!θ3+5!θ5+)=cosθ+isinθ

上式即欧拉公式
  复数x+iy=zx+i y=zx+iy=z能在一个复平面中表示,如图

可由x=rcos⁡θx=r \cos \thetax=rcosθ以及y=rsin⁡θy=r \sin \thetay=rsinθ,推得z=r(cos⁡θ+isin⁡θ)=reiθz=r(\cos \theta+i \sin \theta)=r e^{i \theta}z=r(cosθ+isinθ)=reiθ

### RK3588平台NPU调用方法 #### 创建和初始化NPU环境 为了在RK3588平台上成功调用NPU进行神经网络推理或加速,首先需要确保设备已正确配置并加载了相应的驱动程序。Rockchip的官方固件通常已经预装了RKNPU驱动[^3]。 一旦确认硬件准备就绪,可以通过以下方式创建和初始化NPU环境: ```cpp #include "rknn_api.h" // 初始化模型路径和其他参数 const char* model_path = "./model.rknn"; int ret; rknn_context ctx; ret = rknn_init(&ctx, model_path, 0, 0, NULL); if (ret < 0) { printf("Failed to initialize rknn context\n"); } ``` 这段代码展示了如何使用`rknn_api.h`库来初始化一个RKNN上下文对象,这一步骤对于后续的操作至关重要[^2]。 #### 加载和编译模型 接下来,在实际运行之前还需要加载预先训练好的神经网络模型文件(通常是`.rknn`格式)。此过程涉及读取模型二进制数据,并将其传递给RKNN API以便内部处理和优化。 ```cpp // 假设模型已经被转换成 .rknn 文件格式 char *model_data; // 模型的数据指针 size_t model_size; // 模型大小 FILE *fp = fopen(model_path, "rb+"); fseek(fp, 0L, SEEK_END); model_size = ftell(fp); rewind(fp); model_data = (char *)malloc(sizeof(char)*model_size); fread(model_data, sizeof(unsigned char), model_size, fp); fclose(fp); // 将模型数据传入RKNN API ret = rknn_load_rknn(ctx, &model_data, &model_size); free(model_data); if(ret != 0){ printf("Load Model Failed!\n"); } else{ printf("Model Loaded Successfully.\n"); } ``` 这里说明了从磁盘读取模型文件的具体操作流程,并通过API函数将这些信息提交给了底层框架去解析和设置好用于推断所需的资源[^1]。 #### 执行前向传播计算 当一切准备工作完成后就可以开始真正的预测工作——即让NPU执行一次完整的前向传播运算。这个阶段主要是构建输入张量、启动异步任务以及收集输出结果。 ```cpp float input_tensor[INPUT_SIZE]; // 输入特征图数组 float output_tensors[MAX_OUTPUTS][OUTPUT_SIZE]; // 输出特征图数组 struct rknn_input inputs[] = {{input_tensor}}; struct rknn_output outputs[MAX_OUTPUTS]; for(int i=0;i<NUM_ITERATIONS;++i){ memset(inputs, 0 ,sizeof(struct rknn_input)); memcpy(input_tensor, inputData[i], INPUT_SIZE*sizeof(float)); // 启动推理任务 ret = rknn_run(ctx, nullptr); if(ret!=0){ printf("Inference failed at iteration %d", i); break; } // 获取输出结果 for(size_t j=0;j<num_outputs;++j){ struct rknn_output& out = outputs[j]; size_t bufSize = OUTPUT_SIZE * sizeof(float); void* buffer = malloc(bufSize); ret = rknn_get_output(ctx, j, &out.datatype, &buffer, &bufSize, false); if(!ret && buffer){ memcpy(output_tensors[j], buffer, bufSize); free(buffer); } } } printf("All iterations completed successfully."); ``` 上述片段体现了典型的基于RKNN SDK的应用场景:先准备好待测样本作为输入;接着触发内核中的计算逻辑;最后获取到经过变换后的响应值供下一步分析所用[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值