linux延时队列,Linux的工作队列work queue和延时工作队列

本文详细介绍了Linux中的延时工作队列(delayed work queue)的使用,包括如何声明工作队列、延期工作描述实例、定义延迟处理函数、初始化和提交工作项、取消和刷新工作项,以及工作队列的销毁。通过示例代码展示了如何每隔一定时间间隔执行任务,如3秒或5秒执行一次特定函数。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在linux中,当你想延时几秒或者几毫秒再执行一个任务或者自定义的一个函数时,延时工作队列是你最好的选择。在你的任务或者函数中,加上queue_delayed_work,就可以每隔一段时间执行一次你的任务或者自定义的一个函数,具体实现如下:

按如下步骤:

首先还是要添加上工作队列的相关头文件,头文件一般有这些函数的声明和定义,include了相关的头文件,我们才能随心所欲的使用这些头文件里面的函数,达到我们的目的:

#include

一.声明一个工作队列

static struct workqueue_struct *test_wq;

二.声明一个延期工作描述实例

static struct delayed_work test_delay_wq;

三.声明并实现一个工作队列延迟处理函数

void test_power_delay_work_func(struct work_struct *work)

{

int value;

value = get_adc_sample(0, CHAN_1); //这里调用adc接口去读取数据

pr_err("-czd-: current power adc value is %d\n", value);

queue_delayed_work(test_wq, &test_delay_wq, msecs_to_jiffies(5000)); //加上这句就可以每隔5秒钟执行一次这个函数test_power_delay_work_func,不加就只执行一次,时间msecs_to_jiffies(5000)可以设置别的时间,这里是5秒,相关部分想了解更多可以百度

}

四.初始化一个工作队列(在init模块加载函数添加或者在probe函数添加)

test_wq = create_workqueue("test_wq");

if (!test_wq) {

printk(“-czd-: No memory for workqueue\n");

return 1;

}

五. 任务初始化(在init模块加载函数添加或者在probe函数添加)

INIT_DELAYED_WORK(&test_delay_wq, test_power_delay_work_func);

六.向工作队列提交工作项(在init模块加载函数添加或者在probe函数添加)

ret = queue_delayed_work(test_wq, &test_delay_wq, msecs_to_jiffies(5000));

pr_err("-czd-: ret=%d\n", ret);

七.取消工作队列中的工作项

int cancel_delayed_work(test_wq);

如果这个工作项在它开始执行前被取消,返回值是非零。内核保证给定工作项的执行不会在调用 cancel_delay_work 成功后被执行。 如果 cancel_delay_work 返回 0,则这个工作项可能已经运行在一个不同的处理器,并且仍然可能在调用 cancel_delayed_work 之后被执行。要绝对确保工作函数没有在 cancel_delayed_work 返回 0 后在任何地方运行,你必须跟随这个调用之后接着调用 flush_workqueue。在 flush_workqueue 返回后。任何在改调用之前提交的工作函数都不会在系统任何地方运行。

八.刷新工作队列

flush_workqueue(test_wq);

九.工作队列销毁

destroy_workqueue(test_wq);

七八九可以同时添加到exit函数中,例如以下:

static void __exit module_exit(void)

{

int ret;

ret = cancel_delayed_work(&test_dwq);

flush_workqueue(test_wq);

destroy_workqueue(test_wq);

printk("-czd-: enter %s, ret=%d\n", __func__, ret);

}

除了上面调用的queue_delayed_work之外,使用schedule_delayed_work也是可以的。其实schedule_delayed_work最终返回调用的还是queue_delayed_work。函数声明在include/linux/workqueue.h中。

static inline bool schedule_delayed_work(struct delayed_work *dwork,

unsigned long delay)

{

return queue_delayed_work(system_wq, dwork, delay);

}

下面的demo是实现3秒之后再执行work_queue:

#include

static struct delayed_work send_event; //定义一个delay_work

static void send_event_workq(struct work_struct *work) //定义你要延时执行的函数

{

rk_send_wakeup_key();

printk("***************charger mode send wakeup key\n\n");

schedule_delayed_work(&send_event, msecs_to_jiffies(3000)); //添加之后每隔3秒执行一次

}

static int __init module_init(void)

{

INIT_DELAYED_WORK(&send_event, send_event_workq); //初始化工作队列

schedule_delayed_work(&send_event, msecs_to_jiffies(3000)); //添加到延时工作队列,这里延时3秒

}

static void __exit module_exit(void)

{

cancel_delayed_work_sync(&send_event); //取消延时工作队列

}

下面是创建一个工作队列的demo 代码:

#include

void my_func(void *data)

{

char *name = (char *)data;

printk(KERN_INFO “Hello world, my name is %s!\n”, name);

}

struct workqueue_struct *my_wq = create_workqueue(“my wq”);

struct work_struct my_work;

INIT_WORK(&my_work, my_func);

queue_work(my_wq, &my_work);

destroy_workqueue(my_wq);

### RK3588平台NPU调用方法 #### 创建初始化NPU环境 为了在RK3588平台上成功调用NPU进行神经网络推理或加速,首先需要确保设备已正确配置并加载了相应的驱动程序。Rockchip的官方固件通常已经预装了RKNPU驱动[^3]。 一旦确认硬件准备就绪,可以通过以下方式创建初始化NPU环境: ```cpp #include "rknn_api.h" // 初始化模型路径其他参数 const char* model_path = "./model.rknn"; int ret; rknn_context ctx; ret = rknn_init(&ctx, model_path, 0, 0, NULL); if (ret < 0) { printf("Failed to initialize rknn context\n"); } ``` 这段代码展示了如何使用`rknn_api.h`库来初始化一个RKNN上下文对象,这一步骤对于后续的操作至关重要[^2]。 #### 加载编译模型 接下来,在实际运行之前还需要加载预先训练好的神经网络模型文件(通常是`.rknn`格式)。此过程涉及读取模型二进制数据,并将其传递给RKNN API以便内部处理优化。 ```cpp // 假设模型已经被转换成 .rknn 文件格式 char *model_data; // 模型的数据指针 size_t model_size; // 模型大小 FILE *fp = fopen(model_path, "rb+"); fseek(fp, 0L, SEEK_END); model_size = ftell(fp); rewind(fp); model_data = (char *)malloc(sizeof(char)*model_size); fread(model_data, sizeof(unsigned char), model_size, fp); fclose(fp); // 将模型数据传入RKNN API ret = rknn_load_rknn(ctx, &model_data, &model_size); free(model_data); if(ret != 0){ printf("Load Model Failed!\n"); } else{ printf("Model Loaded Successfully.\n"); } ``` 这里说明了从磁盘读取模型文件的具体操作流程,并通过API函数将这些信息提交给了底层框架去解析设置好用于推断所需的资源[^1]。 #### 执行前向传播计算 当一切准备工作完成后就可以开始真正的预测工作——即让NPU执行一次完整的前向传播运算。这个阶段主要是构建输入张量、启动异步任务以及收集输出结果。 ```cpp float input_tensor[INPUT_SIZE]; // 输入特征图数组 float output_tensors[MAX_OUTPUTS][OUTPUT_SIZE]; // 输出特征图数组 struct rknn_input inputs[] = {{input_tensor}}; struct rknn_output outputs[MAX_OUTPUTS]; for(int i=0;i<NUM_ITERATIONS;++i){ memset(inputs, 0 ,sizeof(struct rknn_input)); memcpy(input_tensor, inputData[i], INPUT_SIZE*sizeof(float)); // 启动推理任务 ret = rknn_run(ctx, nullptr); if(ret!=0){ printf("Inference failed at iteration %d", i); break; } // 获取输出结果 for(size_t j=0;j<num_outputs;++j){ struct rknn_output& out = outputs[j]; size_t bufSize = OUTPUT_SIZE * sizeof(float); void* buffer = malloc(bufSize); ret = rknn_get_output(ctx, j, &out.datatype, &buffer, &bufSize, false); if(!ret && buffer){ memcpy(output_tensors[j], buffer, bufSize); free(buffer); } } } printf("All iterations completed successfully."); ``` 上述片段体现了典型的基于RKNN SDK的应用场景:先准备好待测样本作为输入;接着触发内核中的计算逻辑;最后获取到经过变换后的响应值供下一步分析所用[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值