java 细粒度的锁

本文深入探讨了Java中一种自定义的并发控制机制——KeyLock的实现细节。KeyLock通过ConcurrentMap和Semaphore结合ThreadLocal,实现了对特定key的细粒度锁定,有效避免了多线程环境下对同一资源的并发访问冲突。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

private KeyLock<String> lock = new KeyLock<String>();



lock.lock(request.getSession().getId());


finally {
			lock.unlock(session.getId());
		}
public class KeyLock<K>{  
    // 保存所有锁定的KEY及其信号量  
    private final ConcurrentMap<K, Semaphore> map = new ConcurrentHashMap<K, Semaphore>();  
    // 保存每个线程锁定的KEY及其锁定计数  
    private final ThreadLocal<Map<K, LockInfo>> local = new ThreadLocal<Map<K, LockInfo>>() {  
        @Override  
        protected Map<K, LockInfo> initialValue() {  
            return new HashMap<K, LockInfo>();  
        }  
    };  
  
    /** 
     * 锁定key,其他等待此key的线程将进入等待,直到调用{@link #unlock(K)} 
     * 使用hashcode和equals来判断key是否相同,因此key必须实现{@link #hashCode()}和 
     * {@link #equals(Object)}方法 
     *  
     * @param key 
     */  
    public void lock(K key) {  
        if (key == null)  
            return;  
        LockInfo info = local.get().get(key);  
        if (info == null) {  
            Semaphore current = new Semaphore(1);  
            current.acquireUninterruptibly();  
            Semaphore previous = map.put(key, current);  
            if (previous != null)  
                previous.acquireUninterruptibly();  
            local.get().put(key, new LockInfo(current));  
        } else {  
            info.lockCount++;  
        }  
    }  
      
    /** 
     * 释放key,唤醒其他等待此key的线程 
     * @param key 
     */  
    public void unlock(K key) {  
        if (key == null)  
            return;  
        LockInfo info = local.get().get(key);  
        if (info != null && --info.lockCount == 0) {  
            info.current.release();  
            map.remove(key, info.current);  
            local.get().remove(key);  
        }  
    }  
  
    /** 
     * 锁定多个key 
     * 建议在调用此方法前先对keys进行排序,使用相同的锁定顺序,防止死锁发生 
     * @param keys 
     */  
    public void lock(K[] keys) {  
        if (keys == null)  
            return;  
        for (K key : keys) {  
            lock(key);  
        }  
    }  
  
    /** 
     * 释放多个key 
     * @param keys 
     */  
    public void unlock(K[] keys) {  
        if (keys == null)  
            return;  
        for (K key : keys) {  
            unlock(key);  
        }  
    }  
  
    private static class LockInfo {  
        private final Semaphore current;  
        private int lockCount;  
  
        private LockInfo(Semaphore current) {  
            this.current = current;  
            this.lockCount = 1;  
        }  
    }  
}  
### HDFS DataNode 中细粒度的实现 在 Hadoop 分布式文件系统 (HDFS) 的架构设计中,DataNode 负责存储实际的数据块。为了提高并发性能并确保数据一致性,DataNode 实现了细粒度定机制。 #### 定策略 细粒度通过减少争用提高了系统的吞吐量和响应速度。具体来说,在处理多个客户端请求时,DataNode 不会简单地对整个节点加,而是针对不同的操作采用更精细的定范围[^1]。 对于读写操作: - **读取操作**:当有多个客户端同时发起只读请求时,可以允许多个线程持有共享(即读),从而允许并发读取而不互相阻塞。 - **写入操作**:由于写入可能改变现有数据结构或状态,因此需要独占(即写)。这意味着在同一时间只有一个线程能够执行写入动作,并且在此期间不允许其他任何类型的访问。 这种区分对待不同性质的操作方式有效地减少了不必要的等待时间和资源闲置情况的发生。 #### 数据同步与保护 除了基本的读/写分离外,还存在一些特定场景下的额外措施来保障数据安全性和完整性: - 当更新元数据或者涉及多步事务性的变更时,则可能会引入更高层次别的协调机制,比如使用 ReentrantReadWriteLock 来提供更加灵活可控的行为模式。 - 对于某些关键路径上的热点对象,还可以考虑利用分段技术进一步细分可竞争区域,降低全局带来的负面影响。 综上所述,通过对各种可能发生的交互行为进行细致分类管理,不仅增强了系统的稳定可靠程度,同时也极大提升了整体效率表现。 ```java // Java伪代码展示如何应用ReentrantReadWriteLock private final ReadWriteLock rwl = new ReentrantReadWriteLock(); private final Lock readLock = rwl.readLock(); private final Lock writeLock = rwl.writeLock(); public void readFile() { readLock.lock(); try { // 执行读取逻辑... } finally { readLock.unlock(); } } public void writeFile() { writeLock.lock(); try { // 执行写入逻辑... } finally { writeLock.unlock(); } } ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值