Barrier 性能如何?

本文对比了iOS开发中不同锁机制的性能,包括自旋锁、互斥锁、读写锁、递归锁、信号量、分布锁、条件变量、栅栏GCDBarrier。测试结果显示atomic加锁方式效率最高,而并发队列+barrier方式最慢。进一步测试了dispatch_semaphore、pthread_mutex、NSRecursiveLock和Barrier对数组加锁的性能,最终推荐使用Barrier实现容器类的多线程问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在处理容器的多线程问题, 难免会用到加锁的方式来处理, iOS开发中, 锁有以下几种:

(1) 自旋锁 OSSpinLock

(2) 互斥锁 pthread_mutex, NSLock, @synchronized

(3) 读写锁 pthread_rwlock

(5) 递归锁 NSRecursiveLock, pthread_mutex(recursive)

(6) 信号量 dispatch_semaphore

(7) 分布锁 NSDistributedLock

(8) 条件变量 NSConditionLock

(9) 栅栏 GCD Barrier

单独加锁的性能,可以参考 不在安全的OSSpinLock 这篇文章的demo测试, 结果如下:

 其中并没有比较 Lock 和 GCD Barrier 的性能

在 queue+barrier性能真的很好吗?中作者比较了对于属性加锁和GCD Barrier的性能, 结果显示

atomic加锁方式的效率最高的,并发队列+barrier方式竟然是最慢的,比atomic慢了20倍。这个结果令人大跌眼镜, 我不禁问自己为什么Barrier的方式如此之慢, Matt Galloway 在 《Effective Objective-C 2.0》 书中41条推荐派发队列, 而非锁方式对容器进行保护呢? 而且书中作者也提到了@synchronized 和 递归锁 NSRecursiveLock 的方式, 并指出GCD的方案更加简单和高效, 这与我们的测试结论大相径庭, 因此设计另一种测试方案, 不仅仅是对属性加锁, 而是用dispatch_semaphore, pthread_mutex(recursive), NSRecursiveLock 和 Barrier 对数组加锁, 然后对改数组做读写操作, 测试性能

数据加锁方式, 可以参考 YYThreadSafeArray 的做法, 核心代码

dispatch_semaphore 加锁方式

pthread_mutex(recursive) 加锁方式

pthread_mutex 加锁方式

Barrier 方式

测试核心代码

iPhone 8 模拟器,11.4系统,ARC内存管理模式,dispatch_apply + 并发 queue 执行 10w 次,属性的读写操作比例为5:1,测试并发queue+barrier, pthread_mutex, pthread_mutex(recursive),  dispatch_semaphore, NSRecursiveLock等5种方案的效率,连续测试50次

结果:

耗时: Barrier < Semaphore < pthread_mutex < pthread_mutex(recursive) < NSRecursiveLock

同时 dispatch_semaphore 和 pthread_mutex 等非递归锁存在死锁问题:

在枚举的时候加锁了, 如果再调用其count方法, 就造成了死锁问题, 这就需要可重入的锁来解决, 及递归锁. 同时Barrier也可以解决这个问题.

因此, 结合性能和锁的问题, 对于容器类的多线程问题推荐使用Barrier实现.

因水平有限, 如有错误, 欢迎拍砖.

Demo

<think>嗯,用户想了解计算机科学或编程中的“barrier point”概念或用法。首先,我需要确认这个术语的具体含义。在计算机领域,barrier通常指同步机制中的屏障,用于协调多个线程或进程的执行顺序。Barrier point可能指的是屏障点,即线程到达并等待其他线程的位置。 接下来,我应该回忆多线程编程中的同步问题。例如,OpenMP中的屏障同步,或者POSIX线程库中的pthread_barrierBarrier的作用是确保所有线程到达某个点后才能继续执行,避免数据竞争或不一致。比如并行计算中,各线程完成某阶段任务后需同步,再进行下一步。 然后,需要确认用户可能的背景。可能是学习多线程编程时遇到了这个概念,或者在进行并行计算时遇到同步问题。需要解释Barrier的基本原理,使用场景,并举例说明。例如,在并行算法中,各子任务完成后汇总结果,这时需要Barrier来同步所有线程。 另外,要注意用户提到的参考引用。引用[2]提到了过程化编程、数据抽象、面向对象和泛型编程,可能与Barrier在不同编程范式中的应用有关。例如,在面向对象编程中,如何封装Barrier机制。 还要考虑用户是否需要代码示例,比如使用pthread库实现Barrier的示例,或者解释Java中的CyclicBarrier类。同时,需要指出常见的错误,比如死,如果线程未能全部到达屏障点,导致程序挂起。 最后,生成相关问题,帮助用户深入理解,如Barrier的区别,实际应用案例,或如何避免死。确保回答结构清晰,覆盖定义、原理、应用和注意事项,并引用相关文献。</think>### Barrier Point(屏障点)的概念与用法 **Barrier Point**(屏障点)是计算机科学中用于多线程/多进程同步的机制,主要作用是确保多个执行单元(如线程、进程)在特定代码位置**全部到达后**才能继续执行后续操作。其核心思想类似于现实中的“集合点”,常用于并行计算、分布式系统等场景[^1]。 --- #### 核心原理 1. **同步控制** 当线程到达屏障点时,会被阻塞直至**所有参与线程都到达同一屏障点**,之后所有线程同时被释放继续执行。 例如:并行计算中,多个线程完成各自子任务后,需汇总结果前必须同步。 2. **计数器机制** 屏障通常维护一个计数器,记录已到达的线程数。当计数器达到预设值时,触发屏障释放。 --- #### 代码示例(C/pthread) ```c #include <pthread.h> pthread_barrier_t barrier; // 定义屏障 void* thread_func(void* arg) { // ...执行任务... pthread_barrier_wait(&barrier); // 等待其他线程到达屏障点 // ...继续后续操作... return NULL; } int main() { pthread_barrier_init(&barrier, NULL, 3); // 初始化屏障,需3个线程到达 pthread_t t1, t2, t3; pthread_create(&t1, NULL, thread_func, NULL); pthread_create(&t2, NULL, thread_func, NULL); pthread_create(&t3, NULL, thread_func, NULL); // ... } ``` --- #### 典型应用场景 1. **并行算法** 如快速排序的分区阶段后需同步各线程处理结果[^1]。 2. **数据分阶段处理** 多线程处理数据的第一阶段完成后,需汇总数据进入第二阶段。 3. **模拟器同步** 游戏引擎中物理计算与渲染线程的协调[^2]。 --- #### 注意事项 1. **死风险** 若线程无法全部到达屏障点(如异常退出),程序将永久阻塞。 2. **性能影响** 屏障点的频繁使用可能降低并行效率,需权衡同步粒度。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值