GCD (Grand Central Dispatc)

本文介绍了苹果公司的Grand Central Dispatch (GCD) 技术,该技术用于优化应用程序以支持多核心处理器。文章详细讲解了GCD的设计理念、任务与队列的概念、不同类型的队列及其使用方法。
GCD的介绍和使用
介绍:
  • Grand Central Dispatch 简称(GCD)是苹果公司开发的技术,以优化的应用程序支持多核心处理器和其他的对称多处理系统的系统。这建立在任务并行执行的线程池模式的基础上的。它首次发布在Mac OS X 10.6 ,iOS 4及以上也可用。 GCD是基于C语言的,这意味着高效率
 
设计
  • GCD是苹果公司为多核的并行运算提出的解决方案
  • GCD会自动利用更多的CPU内核(比如双核、四核)
  • GCD会自动管理线程的生命周期(创建线程、调度任务、销毁线程)
  • 程序员只需要告诉GCD想要执行什么任务,不需要编写任何线程管理代码

注意:
  1. GCD存在于libdispatch.dylib这个库中,这个调度库包含了GCD的所有的东西,但任何IOS程序,默认就加载了这个库,在程序运行的过程中会动态的加载这个库,不需要我们手动导入。
  2. GCD是纯C语言的,因此我们在编写GCD相关代码的时候,面对的函数,而不是方法。
  3. GCD中的函数大多数都以dispatch开头。




任务和队列:
  • GCD中有2个核心概念:
    1. 任务:执行什么操作
    2. 队列:用来存放任务
  • GCD的使用就2个步骤:
    1. 定制任务
    2. 确定想做的事情
将任务添加到队列中,GCD会自动将队列中的任务取出,放到对应的线程中执行
提示:任务的取出遵循队列的FIFO原则:先进先出,后进后出

执行任务:
  • GCD中有2个用来执行任务的函数:
    1. 用同步的方式执行任务 dispatch_sync(dispatch_queue_t queue, dispatch_block_t block);
    2. 用异步的方式执行任务 dispatch_async(dispatch_queue_t queue, dispatch_block_t block);
      注: 参数说明: queue:队列, block:任务  函数说明:把右边的参数(任务)提交给左边的参数(队列)进行执行。 

  • 同步和异步的区别:
    1. 同步:在当前线程中执行
    2. 异步:在另一条线程中执行


队列类型:
  • GCD可以分为两大类:
    • 并发队列(Concurrent Dispatch Queue)  
      1. 可以让多个任务并发(同时)执行(自动开启多个线程同时执行任务)
      2. 并发功能只有在异步(dispatch_async)函数下才有效
    • 串行队列(Serial Dispatch Queue)
      1. 让任务一个接一个的执行(一个任务执行完毕后,再执行下一个任务)

补充说明(同步,异步,串行,并发):
  •  同步异步决定了要不要开启新的线程
    • 同步:在当前线程中执行任务,不具备开启新线程的能力
    • 异步:在新的线程中执行任务,具备开启新线程的能力
  • 并发和串行决定了任务的执行方式
    • 并发:多个任务同时执行
    • 串行:一个任务执行完毕后,再执行下一个任务


并发队列:
GCD默认已经提供了全局的并发队列,供整个应用使用,不需要手动创建
  • 使用dispatch_get_global_queue函数获得全局的并发队列
  • dispatch_queue_t dispatch_get_global_queue(dispatch_queue_priority_t priority,unsigned long flags); // flags 此参数暂时无用,现只能是0,
  • 示例:
    • 第一个参数为优先级,这里选择默认的。获取一个全局的默认优先级的并发队列。dispatch_queue_t queue = dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0); // 获得全局并发队列
  • 说明:全局并发队列的优先级 
    #define DISPATCH_QUEUE_PRIORITY_HIGH 2 // 高
    #define DISPATCH_QUEUE_PRIORITY_DEFAULT 0 // 默认(中)
    #define DISPATCH_QUEUE_PRIORITY_LOW (-2) // 低
    #define DISPATCH_QUEUE_PRIORITY_BACKGROUND INT16_MIN // 后台


串行队列:
GCD中获取串行队列有2种途径 
  • 使用 dispatch_queue_create函数创建串行队列
    • dispatch_queue_t queue = dispatch_queue_create(<#const char *label#>, <#dispatch_queue_attr_t attr#>)
    • 队列名称  <#const char *label#>
    • 队列属性  <#dispatch_queue_attr_t attr#> (//DISPATCH_QUEUE_CONCURRENT 并行队列  //DISPATCH_QUEUE_SERIAL   串行队列 或者使用null)
    • 示例
      • dispatch_queue_t queue = dispatch_queue_create("Jack", DISPATCH_QUEUE_SERIAL);
      • // 创建dispatch_release(queue); // 非ARC需要释放手动创建的队列
             
  • 使用主队列(跟主线程相关联的队列)
    • 主队列是GCD自带的一种特殊的串行队列,放在主队列中的任务,都会放到主线程中执行
      • 使用dispatch_get_main_queue()获得主队列
      • 示例:dispatch_queue_t queue = dispatch_get_main_queue();

代码示例:
  • 用异步函数往串行队列中添加任务
    • 示例
      总结:会开启线程,但是只开启一个线程

  •      用同步函数往并发队列中添加任务
    • 示例
    • 总结:不会开启新的线程,并发队列失去了并发功能

  •  补充
    • 队列名称的作用:
      • 调试的时候,可以看得出任务在哪个队列中执行
     
      • 总结:
        • 同步函数不具备开启线程的能力,无论是神马队列都不会开启线程,异步函数具备开启线程的能力,但不一定会开线程,开启几条线程由队列决定(串行队列只会开启一条新的进程,并发队列会开启多条进程).
代码转载自:https://pan.quark.cn/s/a4b39357ea24 本文重点阐述了利用 LabVIEW 软件构建的锁相放大器的设计方案及其具体实施流程,并探讨了该设备在声波相位差定位系统中的实际运用情况。 锁相放大器作为一项基础测量技术,其核心功能在于能够精确锁定微弱信号的频率参数并完成相关测量工作。 在采用 LabVIEW 软件开发的锁相放大器系统中,通过计算测量信号与两条参考信号之间的互相关函数,实现对微弱信号的频率锁定,同时输出被测信号的幅值信息。 虚拟仪器技术是一种基于计算机硬件平台的仪器系统,其显著特征在于用户可以根据实际需求自主设计仪器功能,配备虚拟化操作界面,并将测试功能完全由专用软件程序实现。 虚拟仪器系统的基本架构主要由计算机主机、专用软件程序以及硬件接口模块等核心部件构成。 虚拟仪器最突出的优势在于其功能完全取决于软件编程,用户可以根据具体应用场景灵活调整系统功能参数。 在基于 LabVIEW 软件开发的锁相放大器系统中,主要运用 LabVIEW 软件平台完成锁相放大器功能的整体设计。 LabVIEW 作为一个图形化编程环境,能够高效地完成虚拟仪器的开发工作。 借助 LabVIEW 软件,可以快速构建锁相放大器的用户操作界面,并且可以根据实际需求进行灵活调整和功能扩展。 锁相放大器系统的关键构成要素包括测量信号输入通道、参考信号输入通道、频率锁定处理单元以及信号幅值输出单元。 测量信号是系统需要检测的对象,参考信号则用于引导系统完成对测量信号的频率锁定。 频率锁定处理单元负责实现测量信号的锁定功能,信号幅值输出单元则负责输出被测信号的幅值大小。 在锁相放大器的实际实现过程中,系统采用了双路参考信号输入方案来锁定测量信号。 通过分析两路参考信号之间的相...
边缘计算环境中基于启发式算法的深度神经网络卸载策略(Matlab代码实现)内容概要:本文介绍了在边缘计算环境中,利用启发式算法实现深度神经网络任务卸载的策略,并提供了相应的Matlab代码实现。文章重点探讨了如何通过合理的任务划分与调度,将深度神经网络的计算任务高效地卸载到边缘服务器,从而降低终端设备的计算负担、减少延迟并提高整体系统效率。文中涵盖了问题建模、启发式算法设计(如贪心策略、遗传算法、粒子群优化等可能的候选方法)、性能评估指标(如能耗、延迟、资源利用率)以及仿真实验结果分析等内容,旨在为边缘智能计算中的模型推理优化提供可行的技术路径。; 适合人群:具备一定编程基础,熟悉Matlab工具,从事边缘计算、人工智能、物联网或智能系统优化方向的研究生、科研人员及工程技术人员。; 使用场景及目标:①研究深度神经网络在资源受限设备上的部署与优化;②探索边缘计算环境下的任务卸载机制与算法设计;③通过Matlab仿真验证不同启发式算法在实际场景中的性能表现,优化系统延迟与能耗。; 阅读建议:建议读者结合提供的Matlab代码进行实践操作,重点关注算法实现细节与仿真参数设置,同时可尝试复现并对比不同启发式算法的效果,以深入理解边缘计算中DNN卸载的核心挑战与解决方案。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值