为什么加锁

本文深入探讨了数据库加锁机制,解释了为何需要加锁,如何通过加锁避免数据读写冲突,特别是在并发操作中确保数据一致性和完整性的关键作用。文章详细分析了MyISAM表级锁的工作原理,包括读锁和写锁的加锁规则,以及如何调整系统变量以优化并发插入性能。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  为什么加锁
  
  你正在读着你喜欢的女孩递给你的信,看到一半的时候,她的好闺蜜过来瞄了一眼(假设她会隐身术,你看不到她),她想把“我很喜欢你”改成“我不喜欢你”,刚把“很”字擦掉,“不”字还没写完,只写了一横一撇,这时候你正读到这个字,她怕你察觉到也就没继续往下写了,这时候你读到的这句话就是“我丆喜欢你”,这是什么鬼?!这位闺蜜乐了:没错,确实是鬼在整蛊你呢,嘿嘿!
  
  数据库也会闹鬼吗?很有可能!假设会话1正在读取表里的一条记录(还没读取完),另一个会话2突然插队过来更新表里的同一条记录(还没更新完),那么会话1拿到的数据就可能是错误的(还没更新完的内容和原内容混在一起,造成乱码,就像上面的“我丆喜欢你”)。
  
  怎么避免这种情况呢?加锁,当有一个人在读的时候,别人能读不能写,当有一个人在写的时候,别人不能读和写。
  
  所以,加锁是为了在并发操作的时候,能够确保数据的完整性和一致性。
  
  加锁的规则
  
  MyISAM锁的粒度是表级锁,在执行查询(SELECT)之前,尝试在表上面加读锁,在执行更新(UPDATE,DELETE,INSERT)之前,尝试在表上面加写锁。
  
  加写锁:
  
  如果在表上没有锁(读锁和写锁),在它上面放一个写锁。
  
  否则,把锁定请求放在写锁定队列中。
  
  加读锁:
  
  如果在表上没有写锁定,把一个读锁定放在它上面。
  
  否则,把锁定请求放在读锁定队列中。
  
  优先级:
  
  当一个锁定被释放时,锁定优先被写锁定队列中的线程得到,然后是读锁定队列中的线程。这意味着如果有大量的写操作,读操作将会一直等待,直到写完成。可以通过以下命令看到加锁的情况:
  
  SHOW STATUS LIKE 'table%';
  
  +-----------------------+-------+
  
  | Variable_name         | Value |
  
  +-----------------------+-------+
  
  | Table_locks_immediate | 42    |
  
  | Table_locks_waited    | 3     |
  
  +-----------------------+-------+
  
  Table_locks_immediate是加锁立刻执行成功的次数,Table_locks_waited是造成等待的加锁次数。另外,可以通过LOW_PRIORITY来改变优先级。
  
  实例分析
  
  开一个会话窗口1,输入下面的语句执行:
  
  CREATE TABLE `users`(
  
  `id` int(10) unsigned NOT NULL AUTO_INCREMENT,
  
  `name` varchar(15) NOT NULL,
  
  PRIMARY KEY (`id`)
  
  )ENGINE=MYISAM DEFAULT CHARSET=utf8 COMMENT='用户';
  
  INSERT INTO `users` VALUES (null, 'pigfly'),(null,'zhupp');
  
  为了模拟,我们手动执行LOCK TABLES语句把表锁住:
  
  LOCK TABLES `users` READ LOCAL;
  
  SELECT * FROM `users`;
  
  UPDATE `users` SET name='aa' where id=1;
  
  SELECT正常返回,UPDATE报错了,原因是当前表加了读锁,则当前会话只能执行读操作,不能执行更新操作。
  
  新开一个会话窗口2:
  
  INSERT INTO `users` VALUES (null, yunshenggw.cn/ 'zhupp');
  
  UPDATE `users` SET name='xxx' where id=1;
  
  可以看到插入执行成功,但是UPDATE操作被窗口1加的读锁阻塞了,我们回到窗口1执行:
  
  UNLOCK TABLES;
  
  这时候窗口2的更新语句马上返回更新成功了。
  
  为什么插入不会被读锁阻塞呢?原因是当表加了读锁并且表不存在空闲块的时候(删除或者更新表中间的记录会导致空闲块,OPTIMIZE TABLE可以清除空闲块),MYISAM默认允许其他线程从表尾插入。可以通过改变系统变量concurrent_insert(并发插入)的值来控制并发插入的行为。
  
  SHOW VARIABLES LIKE 'concurrent%';
  
  +-------------------+-------+
  
  | Variable_name     | Value |
  
  +-------------------+-------+
  
  | concurrent_insert | AUTO  |
  
  +-------------------+-------+
  
  Value的值:
  
  NEVER(0): 不允许并发插入
  
  AUTO(1): 表里没有空行时允许从表尾插入(默认)
  
  ALWAYS(2): 任何时候都允许并发插入
  
  注意:锁表的时候加了LOCAL关键字表示允许走并发插入的逻辑,具体是否可以并发插入还需要看是否满足concurrent_insert指定的条件,只有手动锁表的时候才需要指定LOCAL关键字。
  
  测试一下当表里有空闲块的情况,窗口1执行:
  
  DELETE FROM `users` WHERE id=1;
  
  LOCK TABLES `users` READ LOCAL;
  
  然后在窗口2执行:
  
  INSERT INTO `users` VALUES (null,www.yscylept.com 't1');
  
  果然被阻塞了。我们把并发插入的值改成2试试,在窗口1执行:
  
  UNLOCK TABLES;
  
  SET GLOBAL concurrent_insert=2;
  
  DELETE FROM `users` WHERE id=2;
  
  LOCK TABLES `users` READ LOCAL;
  
  然后在窗口2执行:
  
  INSERT INTO `users` VALUES (null, 't2');
  
  SELECT * FROM `users`;
  
  这一次没有被阻塞,插入成功了。
  
  Stream.of("d2", "a2", "b1", "b3", "c")
    .map(s -> {
        System.out.println("map: " + s);
        return s.toUpperCase(); // 转大写
    })
    .anyMatch(s -> {
        System.out.println("anyMatch: " + s);
        return s.startsWith("A"www.tscdeLu.cn); // 过滤出以 A 为前缀的元素
    });

// map:      d2
// anyMatch: D2
// map:      a2
// anyMatch: A2
终端操作 anyMatch()表示任何一个元素以 A 为前缀,返回为 true,就停止循环。所以它会从 d2 开始匹配,接着循环到 a2 的时候,返回为 true ,于是停止循环。

由于数据流的链式调用是垂直执行的,map这里只需要执行两次。相对于水平执行来说,map会执行尽可能少的次数,而不是把所有元素都 map 转换一遍。

四、中间操作顺序这么重要?
下面的例子由两个中间操作map和filter,以及一个终端操作forEach组成。让我们再来看看这些操作是如何执行的:

Stream.of("d2", "a2", "b1", "b3", "c")
    .map(s -> {
        System.out.println("map: " + s);
        return s.toUpperCase(); // 转大写
    })
    .filter(s -> {
        System.out.println("filter: " + s);
        return s.startsWith("A"); // 过滤出以 A 为前缀的元素
    })
    .forEach(s -> System.out.println("forEach: " + s)); // for 循环输出

// map:     d2
// filter:  D2
// map:     a2
// filter:  A2
// forEach: A2
// map:     b1
// filter:  B1
// map:     b3
// filter:  B3
// map:     c
// filter:  C
学习了上面一小节,您应该已经知道了,map和filter会对集合中的每个字符串调用五次,而forEach却只会调用一次,因为只有 "a2" 满足过滤条件。

如果我们改变中间操作的顺序,将filter移动到链头的最开始,就可以大大减少实际的执行次数:

Stream.of("d2", "a2", "b1", "b3", "c")
    .filter(s -> {
        System.out.println(www.yunsengyule.com "filter: " + s)
        return s.startsWith("a"www.enzuoylp.com); // 过滤出以 a 为前缀的元素
    })
    .map(s -> {
        System.out.println("map: " + s);
        return s.toUpperCase(www.tianscpt.com); // 转大写
    })
    .forEach(s -> System.out.println("forEach: " + s)); // for 循环输出

// filter:  d2
// filter:  a2
// map:     a2
// forEach: A2
// filter:  b1
// filter:  b3
// filter:  c
现在,map仅仅只需调用一次,性能得到了提升,这种小技巧对于流中存在大量元素来说,是非常很有用的。

接下来,让我们对上面的代码再添加一个中间操作sorted:

Stream.of("d2", "a2", "b1", "b3", "c")
    .sorted((s1, s2) -> {
        System.out.printf("sort: %s; %s\n", s1, s2);
        return s1.compareTo(s2); // 排序
    })
    .filter(s -> {
        System.out.println("filter: " + s);
        return s.startsWith("a"); // 过滤出以 a 为前缀的元素
    })
    .map(s -> {
        System.out.println("map: " + s);
        return s.toUpperCase(www.ysyl157.com/); // 转大写
    })
    .forEach(s -> System.out.println("forEach: " + s)); // for 循环输出
  
  开销小、加锁快、不会产生死锁,锁定力度大,发生锁冲突的概率最高,不适合高并发场景。
  
  性能优化
  
  对于并发插入,一般默认配置AUTO就可以了,如果有大量插入操作,可以把concurrent_insert设置为2,然后定期在流量低峰期执行OPTIMIZE TABLE来清除空闲块。
  
  调整优先级。
  
  在大量更新操作前手动锁表,这样锁表只执行了一次,不然每执行一次更新就锁一次表。
  
  存在大量更新操作造成等待,又要兼顾查询的时候,给max_write_lock_count设置一个低值,在写锁达到一定数量时允许执行挂起的读请求。
  
  参考资料
  
  MySQL锁定事宜
  
  高性能MySQL
  
  PHP核心技术与最佳实践

<think>我们正在分析CopyOnWriteArrayList中的锁机制。用户提供了代码片段和几个引用,需要解释final transient Object lock的作用以及为什么使用synchronized(this.lock)进行加锁。 根据引用[2]和引用[4]: - CopyOnWriteArrayList内部定义了一个final transient Object lock = new Object()作为锁对象。 - 在add方法中,使用synchronized(this.lock)来同步代码块。 为什么需要锁? - CopyOnWriteArrayList是线程安全的集合,它允许多个读操作并发进行,但写操作需要互斥。写操作(如add)会复制整个底层数组,修改副本,然后替换原数组。这个过程中,如果有多个线程同时写,会导致数据不一致。因此,写操作必须互斥。 为什么使用synchronized(lock)而不是其他方式? - 在早期版本(如Java 1.7)中,CopyOnWriteArrayList使用ReentrantLock(显式锁)。但在后续版本(如Java 1.10)中,改用了synchronized关键字。引用[2]提到,这是因为synchronized在后续版本中得到了优化(如锁升级机制),性能上已经可以与ReentrantLock媲美,而且使用起来更简洁。 锁对象为什么是final transient? - final:确保锁对象不会被重新赋值,保证锁的一致性。 - transient:表示这个字段不会被序列化。因为锁对象与同步相关,是线程级别的状态,序列化没有意义。反序列化时会重新创建一个新的锁对象。 - 使用一个专门的锁对象(而不是this)可以避免外部意外干扰(比如外部代码同步在这个对象上),提高封装性和安全性。 锁的作用范围: - 在add方法中,synchronized(lock)包裹了整个写操作(复制数组、修改、设置新数组),确保同一时刻只有一个线程执行写操作。 与读操作的对比: - 读操作(如get)没有加锁,因为读的是volatile数组(通过getArray()获取),并且写操作每次都是替换整个数组(setArray(es)),所以读操作可以无锁进行,保证了读的高效性。 总结: - lock对象作为同步锁,确保写操作的原子性和可见性。 - 使用synchronized(lock)是因为synchronized在Java新版本中性能优化后更简洁高效。 引用说明: - 引用[2]说明了add方法使用synchronized代码块,并指出版本变化(从ReentrantLock到synchronized)。 - 引用[4]给出了具体的代码,展示了lock的定义和synchronized的使用。 因此,回答将围绕以上要点展开。</think>### CopyOnWriteArrayList中锁对象的作用及同步机制详解 在`CopyOnWriteArrayList`中,`final transient Object lock = new Object()`定义的锁对象及其在`synchronized(this.lock)`中的使用,是实现线程安全的核心机制。以下是具体分析: #### 1. **锁对象的作用** - **互斥控制**: `lock`对象作为同步锁,确保同一时刻**只有一个线程**能执行修改操作(如`add`/`remove`)。当线程A进入`synchronized(lock)`代码块时,其他线程尝试获取相同锁会被阻塞[^2][^4]。 - **写操作隔离**: 由于`CopyOnWriteArrayList`的写操作需要**复制整个数组**(`Arrays.copyOf`),此过程耗时且需原子性。锁保证复制-修改-替换数组的操作不被中断,避免数据错乱[^2][^4]。 - **与读操作解耦**: 读操作(如`get()`)**无需加锁**,直接访问`volatile`数组(通过`getArray()`)。锁仅约束写操作,实现读写分离,提升并发性能[^1][^2]。 #### 2. **为何使用`synchronized(lock)`而非其他方式** - **性能优化**: 早期版本(如Java 7)使用`ReentrantLock`,但新版(如Java 10)改用`synchronized`,因JVM对`synchronized`进行了**锁升级优化**(偏向锁→轻量级锁→重量级锁),在低竞争场景下性能更优[^2]。 - **封装性**: 使用专用`lock`对象(而非`this`)避免外部代码意外同步该锁,降低死锁风险。例如: ```java // 外部代码无法干扰内部锁 CopyOnWriteArrayList<String> list = new CopyOnWriteArrayList<>(); synchronized(list) { ... } // 不影响list内部的lock对象 ``` - **内存可见性**: `synchronized`块隐含**内存屏障**,确保锁内修改对所有线程可见。结合`volatile`数组(`setArray()`写入),保证修改后读线程能立即看到新数组[^2][^4]。 #### 3. **锁对象的关键设计** - **`final`**: 防止锁对象被重新赋值,确保锁的**唯一性**(所有线程竞争同一把锁)。 - **`transient`**: 序列化时排除锁对象,因锁是**线程本地状态**,序列化无意义。反序列化时会新建锁对象。 - **专用对象**: 独立于集合数据,避免与业务逻辑耦合。 #### 4. **同步机制工作流程 以`add(E e)`为例: 1. 线程A进入`synchronized(lock)`,获取锁。 2. 复制原数组(`Arrays.copyOf`),在新数组尾部添加元素。 3. 通过`setArray(es)`将新数组赋值给`volatile`数组(原子替换)。 4. 释放锁,唤醒阻塞线程。 5. 线程B获取锁后,基于线程A已更新的数组继续操作[^2][^4]。 ```mermaid sequenceDiagram participant ThreadA participant ThreadB participant Lock participant VolatileArray ThreadA->>Lock: 请求锁(成功) ThreadA->>VolatileArray: 复制原数组 ThreadA->>VolatileArray: 修改新数组 ThreadA->>VolatileArray: setArray(新数组) ThreadA->>Lock: 释放锁 ThreadB->>Lock: 请求锁(成功) ThreadB->>VolatileArray: 基于更新后数组操作 ``` #### 5. **对比其他线程安全方案** | 机制 | 读写性能 | 适用场景 | |--------------------|---------------|----------------------------| | `synchronized(lock)` | 写阻塞,读无锁 | 读多写少(如配置管理)[^1][^3] | | `ReentrantLock` | 类似`synchronized` | 需高级功能(如公平锁) | | `Collections.synchronizedList` | 所有操作加锁 | 写多读少[^3] | > **关键结论**:`synchronized(lock)`在`CopyOnWriteArrayList`中平衡了线程安全与读性能,通过写时复制+锁机制,实现读操作完全无锁化[^1][^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值