锁优化

1 提升“锁”性能

1.1 减小锁的持有时间

       在锁竞争过程中,单个线程对锁的持有时间越长,锁的竞争程度也就越激烈,会导致性能较低。因此,应该尽可能减少对单个锁的占有时间,以减少线程间互相阻塞的可能性。注意,凡事都有一个度,如果对同一个锁不停地进行请求、同步和释放,这本身也会消耗系统资源,反而不利于提升性能(与锁粗化相关)。

       比如说如下示例:

public synchronized void method(){                     public void method(){

       method1();                                                           method1();

       synMethod();                                                    synchronized (this){

       method2();                                                                  synMethod();

}                                                                                  }

                                                                                    method2();

                                                                             }

       在method()方法中,只有synMethod()方法是需要同步的,如果直接对method()方法加锁,而且如果method1()和method2()都是重量级方法的话就会造成性能急剧下降,这就是由于持有锁的时间太长造成的。优化方法就是左边的代码,只对需要同步的方法synMethod()加锁,从而减少了线程持有锁的时间。

1.2 减小锁粒度

       减小锁粒度也是一种削弱多线程锁竞争的有效手段。减小锁粒度就是指缩小锁定对象的范围,从而减小锁冲突的可能性,从而提升并发性能。

       减小锁粒度的典型就是ConcurrentHashMap。下面讲讲ConcurrentHashMap原理,ConcurrentHashMap内部进一步细分了若干个小的HashMap,称之为Segment,默认情况下,一个ConcurrentHashMap有16个Segment。

       调用put()方法时,并不会对整个Map加锁,而是先根据key的hashCode值得到要存放的Segment,然后对该Segment加锁并完成put操作。如果多个线程进行put()操作,只要被加入的键值对不在同一个Segment,那就可以做到真正的并行。

       但是,减小锁粒度也是有弊端的,当需要全局锁的时候,其消耗的资源会比较多,性能会降低。比如说ConcurrentHashMap的size()方法。在调用size()方法计算键值对数目时,先要获得所有Segment的锁,然后再求和,这就会导致性能很差。但是实际上,size()方法会先使用无锁的方式求和,如果失败才会使用这种加锁的方式。

1.3 读写分离锁替换独占锁

       读写分离锁在读多写少的情况下可以极大提升并发性能,读写锁也是减少锁粒度的一种特殊情况。之前一节是通过分割数据结构实现减小锁粒度,而读写锁是根据系统功能点来分割而实现减小锁粒度的。

1.4 锁粗化

       虚拟机在遇到一连串连续地对同一个锁不断进行请求和释放的操作时,便会把所有的锁操作整合成对锁的一次请求,从而减少对锁的请求同步次数,这就叫做锁粗化。

       比如说如下情况就是锁粗化:

for(int i=0; i<n; i++){                        synchronized (lock){

       synchronized (lock){                               for(int i=0; i<n; i++){                                                                

       }                                                                 }

}                                                       }

       在循环内不断请求和释放锁是没有必要的,更加合理的是在外层只进行一次锁的请求和释放。

2 虚拟机对锁的优化

       锁偏向:

       其是一种针对加锁操作的优化手段。它的核心思想是:如果一个线程获得了锁,那么锁就进入偏向模式。当这个线程再次请求该锁时不需要再进行任何同步操作,这样就减少了大量加锁释放锁的操作。对于几乎没有锁竞争的场合,偏向锁有比较好的优化效果,因为连续多次可能都是同一个线程请求同一个锁(偏向锁也会偏向于将锁给同一个线程),对于锁竞争比较激烈的场合,其效果不佳。

       轻量级锁:

       如果偏向锁失败,虚拟机不会立即挂起线程。它还会使用一种称为轻量级锁的优化手段。轻量级锁只是简单地将对象头部作为指针,指向持有锁的线程堆栈的内部,来判断一个线程是否持有对象锁。如果线程获得轻量级锁成功,则可以进入临界区,否则就表示其他线程抢先获得了锁,那么当前线程的锁就会膨胀为重量级锁。

       自旋锁:

       锁膨胀以后,为了避免线程被真正的挂起,虚拟机会采取另外一种措施—自旋锁。如果在不久的将来,线程就可以获得锁,那么直接将线程挂起是得不偿失的(挂起线程和唤醒线程都需要消耗资源)。因此,虚拟机假设过一会线程就可以获得锁,所以虚拟机会让当前线程做几个空循环(自旋),在经过若干次循环后,如果可以得到锁,那么顺利进入临界区。如果还不能获得锁,才会将线程真正的挂起。

       锁消除:

       Java虚拟机在JIT编译(just-in-time compilation,即时编译)时,通过对上下文的扫描,去除不可能存在共享资源竞争的锁。通过锁消除可以节省毫无意义的请求锁时间。

训练数据保存为deep_convnet_params.pkl,UI使用wxPython编写。卷积神经网络(CNN)是一种专门针对图像、视频等结构化数据设计的深度学习模型,在计算机视觉、语音识别、自然语言处理等多个领域有广泛应用。其核心设计理念源于对生物视觉系统的模拟,主要特点包括局部感知、权重共享、多层级抽象以及空间不变性。 **1. 局部感知与卷积操作** 卷积层是CNN的基本构建块,使用一组可学习的滤波器对输入图像进行扫描。每个滤波器在图像上滑动,以局部区域内的像素值与滤波器权重进行逐元素乘法后求和,生成输出值。这一过程能够捕获图像中的边缘、纹理等局部特征。 **2. 权重共享** 同一滤波器在整个输入图像上保持相同的权重。这显著减少了模型参数数量,增强了泛化能力,并体现了对图像平移不变性的内在假设。 **3. 池化操作** 池化层通常紧随卷积层之后,用于降低数据维度并引入空间不变性。常见方法有最大池化和平均池化,它们可以减少模型对微小位置变化的敏感度,同时保留重要特征。 **4. 多层级抽象** CNN通常包含多个卷积和池化层堆叠在一起。随着网络深度增加,每一层逐渐提取更复杂、更抽象的特征,从底层识别边缘、角点,到高层识别整个对象或场景,使得CNN能够从原始像素数据中自动学习到丰富的表示。 **5. 激活函数与正则化** CNN中使用非线性激活函数来引入非线性表达能力。为防止过拟合,常采用正则化技术,如L2正则化和Dropout,以增强模型的泛化性能。 **6. 应用场景** CNN在诸多领域展现出强大应用价值,包括图像分类、目标检测、语义分割、人脸识别、图像生成、医学影像分析以及自然语言处理等任务。 **7. 发展与演变** CNN的概念起源于20世纪80年代,其影响力在硬件加速和大规模数据集出现后真正显现。经典模型如LeNet-5用于手写数字识别,而AlexNet、VGG、GoogLeNet、ResNet等现代架构推动了CNN技术的快速发展。如今,CNN已成为深度学习图像处理领域的基石,并持续创新。 资源来源于网络分享,仅用于学习交流使用,请勿用于商业,如有侵权请联系我删除!
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值