stm32f4内部flash讲解

基础简介

不同芯片内部的flah大小不同,stm32f407内部flah是1M(1024K)大小,其结构划分如图所示:

STM32F4 的闪存模块由:主存储器、系统存储器、 OPT 区域和选项字节等 4 部分组成
主存储器:该部分用来存放代码和数据常数(如 const 类型的数据),分为 12 个大小不同的扇区,主存储器的起始地址是 0X08000000。

系统存储器:这个区主要用来存放 STM32F4 的 bootloader 代码,此代码是出厂的时候就固化在芯片内部了,比例用串口下载程序时的bootload(ISP下载)。

OTP 区域:即一次性可编程区域,一次性的,写完一次,永远不能擦除。

选项字节:用于配置读保护、 BOR 级别、软件/硬件看门狗以及器件处于待机或停止模式
下的复位,相当于一些寄存器位。

在执行闪存写操作时,任何对闪存的读操作都会锁住总线,在写操作完成后读操作才能正
确地进行;既在进行写或擦除操作时,不能进行代码或数据的读取操作。所以在写的时候有必要写FLASH_DataCacheCmd(DISABLE);来禁止数据缓存,写完后再打开。

flash擦除后每个地址块的数据是0xff,擦除就是将地址内的数据转变为0xff,写入数据就是将有关位置0;


地址、内存相关基础讲解

  1. 计算机中最小的信息单位是bit,也就是一个二进制位,8个bit组成一个Byte,也就是1个字节;我们常说的flash空间,多少多少K,指的是多少多少K byte
  2. 1个存储单元存放1个字节,以stm32为例是32位单片机,它每个存储单元对应一个32位(bit)地址,即一个32位地址指向1个字节!
  3. *(u16*)0x0800 0000*(u32*)0x0800 0000蓝色是以0x0800 0000为首地址取一个16bit的数据(0x0800 0000和0x0800 0001一起组成16位),紫色是以0x0800 0000首地址取一个32bit的数据(0x0800 0000、0x0800 0001、0x0800 0002和0x0800 0003一起组成32位)。
  4. flash操作是以字节为最小单位进行操作。

配置操作

读数据

STM23F4 的 FLASH 读取是很简单的。例如,我们要从地址 addr,读取一个字(字节为 8位, 半字为 16 位,字为 32 位),可以通过如下的语句读取:

data=*(vu32*)addr;        //addr为内存地址值


将 addr 强制转换为 vu32 指针,然后取该指针所指向的地址的值,即得到了 addr 地址的值。
类似的,将上面的 vu32 改为 vu16,即可读取指定地址的一个半字。

擦除和编程

  1. 擦除要先解锁,要写 0X45670123 到 FLASH_KEYR,写 0XCDEF89AB 到 FLASH_KEYR来解锁。
  2. STM32F4 闪存的编程位数可以通过 FLASH_CR 的 PSIZE 字段配置, PSIZE 的设置必须和
    电源电压匹配
    在正点原子教程里面有句话:“由于我们开发板用的电压是 3.3V,所以 PSIZE 必须设置为10,即 32 位并行位数。擦除或者编程,都必须以 32 位为基础进行”。但是在野火的教程里写的是:“在内部 FLASH 进行擦除及写入操作时,电源电压会影响数据的最大操作位数,我们接的是3.3V电压,所以最大可以配置为X32,当然也可以配置为X16、X8”,这里建议还是以正点原子的为准。
  3. 擦除编写步骤:
    1. 解锁:void FLASH_Unlock(void);
    2. 关闭数据缓存:FLASH_DataCacheCmd(ENABLE);
    3. 擦除扇区/块:

      FLASH_Status FLASH_EraseSector(uint32_t FLASH_Sector, uint8_t VoltageRange);    //擦除指定扇区,VoltageRange是擦除的位数,与电压有关。

      FLASH_Status FLASH_EraseAllSectors(uint8_t VoltageRange);//擦除所有扇区

      FLASH_StatusFLASH_EraseAllBank1Sectors(uint8_t VoltageRange);//擦除bank1

              4.在指定地址写数据

                        FLASH_Status FLASH_ProgramDoubleWord(uint32_t Address, uint64_t Data);        //指定地址写入双字64bit
                        FLASH_Status FLASH_ProgramWord(uint32_t Address, uint32_t Data);        //指定地址写入字32bit
                        FLASH_Status FLASH_ProgramHalfWord(uint32_t Address, uint16_t Data);        //指定地址写入半字16bit
                        FLASH_Status FLASH_ProgramByte(uint32_t Address, uint8_t Data);        //指定地址写入字节8bit

               5.打开数据缓存:FLASH_DataCacheCmd(ENABLE);               

               6.上锁:   FLASH_Lock();         //上锁

注意事项

  1. 写入地址必须是用户代码区以外的地址。不能覆盖用户代码,否则程序会出错。
  2. 写入地址必须是 4 的倍数。因为数据是以32bit写入的,占用4个地址位,所以是4的倍数。
  3. 设置 FLASH 保存地址必须为偶数。
     
### RK3588平台NPU调用方法 #### 创建和初始化NPU环境 为了在RK3588平台上成功调用NPU进行神经网络推理或加速,首先需要确保设备已正确配置并加载了相应的驱动程序。Rockchip的官方固件通常已经预装了RKNPU驱动[^3]。 一旦确认硬件准备就绪,可以通过以下方式创建和初始化NPU环境: ```cpp #include "rknn_api.h" // 初始化模型路径和其他参数 const char* model_path = "./model.rknn"; int ret; rknn_context ctx; ret = rknn_init(&ctx, model_path, 0, 0, NULL); if (ret < 0) { printf("Failed to initialize rknn context\n"); } ``` 这段代码展示了如何使用`rknn_api.h`库来初始化一个RKNN上下文对象,这一步骤对于后续的操作至关重要[^2]。 #### 加载和编译模型 接下来,在实际运行之前还需要加载预先训练好的神经网络模型文件(通常是`.rknn`格式)。此过程涉及读取模型二进制数据,并将其传递给RKNN API以便内部处理和优化。 ```cpp // 假设模型已经被转换成 .rknn 文件格式 char *model_data; // 模型的数据指针 size_t model_size; // 模型大小 FILE *fp = fopen(model_path, "rb+"); fseek(fp, 0L, SEEK_END); model_size = ftell(fp); rewind(fp); model_data = (char *)malloc(sizeof(char)*model_size); fread(model_data, sizeof(unsigned char), model_size, fp); fclose(fp); // 将模型数据传入RKNN API ret = rknn_load_rknn(ctx, &model_data, &model_size); free(model_data); if(ret != 0){ printf("Load Model Failed!\n"); } else{ printf("Model Loaded Successfully.\n"); } ``` 这里说明了从磁盘读取模型文件的具体操作流程,并通过API函数将这些信息提交给了底层框架去解析和设置好用于推断所需的资源[^1]。 #### 执行前向传播计算 当一切准备工作完成后就可以开始真正的预测工作——即让NPU执行一次完整的前向传播运算。这个阶段主要是构建输入张量、启动异步任务以及收集输出结果。 ```cpp float input_tensor[INPUT_SIZE]; // 输入特征图数组 float output_tensors[MAX_OUTPUTS][OUTPUT_SIZE]; // 输出特征图数组 struct rknn_input inputs[] = {{input_tensor}}; struct rknn_output outputs[MAX_OUTPUTS]; for(int i=0;i<NUM_ITERATIONS;++i){ memset(inputs, 0 ,sizeof(struct rknn_input)); memcpy(input_tensor, inputData[i], INPUT_SIZE*sizeof(float)); // 启动推理任务 ret = rknn_run(ctx, nullptr); if(ret!=0){ printf("Inference failed at iteration %d", i); break; } // 获取输出结果 for(size_t j=0;j<num_outputs;++j){ struct rknn_output& out = outputs[j]; size_t bufSize = OUTPUT_SIZE * sizeof(float); void* buffer = malloc(bufSize); ret = rknn_get_output(ctx, j, &out.datatype, &buffer, &bufSize, false); if(!ret && buffer){ memcpy(output_tensors[j], buffer, bufSize); free(buffer); } } } printf("All iterations completed successfully."); ``` 上述片段体现了典型的基于RKNN SDK的应用场景:先准备好待测样本作为输入;接着触发内核中的计算逻辑;最后获取到经过变换后的响应值供下一步分析所用[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值