Linux 内核 spin_lock 和spin_unlock

本文详细阐述了spin_lock在ARMv8架构中的具体实现方式,重点介绍了spin_lock和spin_unlock的功能及内部机制,通过源码分析揭示了其在内核中的高效同步原理。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. spin_lock作为一种轻量级的同步机制,在内核应用广泛,本文将基于ARMv8讲述其具体实现。由于spin_lock家族比较庞大,不大算面面俱到的介绍每一个实现,重点介绍spin_lock和spin_unlock的实现。

include/linux/spinlock.h


static inline void spin_lock(spinlock_t *lock)
{
        raw_spin_lock(&lock->rlock);
}

static inline void spin_unlock(spinlock_t *lock)
{
        raw_spin_unlock(&lock->rlock);
}

#define raw_spin_lock(lock)     _raw_spin_lock(lock)

#define raw_spin_unlock(lock)           _raw_spin_unlock(lock)


include/linux/spinlock_api_smp.h


void __lockfunc _raw_spin_lock(raw_spinlock_t *lock)            __acquires(lock);

void __lockfunc _raw_spin_unlock(raw_spinlock_t *lock)          __releases(lock);


kernel/spinlock.c


void __lockfunc _raw_spin_lock(raw_spinlock_t *lock)
{
        __raw_spin_lock(lock);
}
EXPORT_SYMBOL(_raw_spin_lock);

void __lockfunc _raw_spin_unlock(raw_spinlock_t *lock)
{
        __raw_spin_unlock(lock);
}
EXPORT_SYMBOL(_raw_spin_unlock);


include/linux/spinlock_api_smp.h


static inline void __raw_spin_lock(raw_spinlock_t *lock)
{
        preempt_disable();                          //禁止强占
        spin_acquire(&lock->dep_map, 0, 0, _RET_IP_);
        LOCK_CONTENDED(lock, do_raw_spin_trylock, do_raw_spin_lock);
}

static inline void __raw_spin_unlock(raw_spinlock_t *lock)
{
        spin_release(&lock->dep_map, 1, _RET_IP_);
        do_raw_spin_unlock(lock);
        preempt_enable();
}


include/linux/lockdep.h


#define LOCK_CONTENDED(_lock, try, lock)                        \
do {                                                            \
        if (!try(_lock)) {                                      \
                lock_contended(&(_lock)->dep_map, _RET_IP_);    \
                lock(_lock);                                    \
        }                                                       \
        lock_acquired(&(_lock)->dep_map, _RET_IP_);                     \
} while (0)

由以上函数调用可以看出spin_lock调用do_raw_spin_lock, spin_unlock调用do_raw_spin_unlock。


include/linux/spinlock.h


static inline void do_raw_spin_lock(raw_spinlock_t *lock) __acquires(lock)
{
        __acquire(lock);
        arch_spin_lock(&lock->raw_lock);
}
static inline void do_raw_spin_unlock(raw_spinlock_t *lock) __releases(lock)
{
        arch_spin_unlock(&lock->raw_lock);
        __release(lock);
}


2. Armv8 arch_spin_lock 和 arch_spin_unlock


 41 static inline void arch_spin_lock(arch_spinlock_t *lock)
 42 {
 43         unsigned int tmp;
 44
 45         asm volatile(
 46         "       sevl\n"
 47         "1:     wfe\n"
 48         "2:     ldaxr   %w0, %1\n"
 49         "       cbnz    %w0, 1b\n"
 50         "       stxr    %w0, %w2, %1\n"
 51         "       cbnz    %w0, 2b\n"
 52         : "=&r" (tmp), "+Q" (lock->lock)
 53         : "r" (1)
 54         : "cc", "memory");
 55 }

46行,设置本地事件

47行, 等待事件(可能进入低功耗状态)

48行,独占读取lock->lock

49行, 如果不是0,跳转到47行,等待事件。如果是,继续执行。

50行, 独占向lock->lock写入1.

51行, 如果不成功,跳转到48行。如果成功结束。


 73 static inline void arch_spin_unlock(arch_spinlock_t *lock)
 74 {
 75         asm volatile(
 76         "       stlr    %w1, %0\n"
 77         : "=Q" (lock->lock) : "r" (0) : "memory");
 78 }

76行,向lock->lock写入0;会发出唤醒事件。





<think>好的,用户想了解spin_lock_irqsavespin_lock之间的区别。根据提供的引用内容,我需要先整理两者的主要差异。首先,spin_lock_irqsave会在获取锁之前禁用本地中断,并保存中断状态,而spin_lock可能不会处理中断。这可能涉及到中断上下文的处理,比如防止在锁持有期间被中断处理程序抢占,导致死锁。 引用中提到,spin_lock_irqsave的代码示例中调用了local_irq_disable()preempt_disable(),这说明它确实会关闭中断抢占。而spin_lock可能只处理抢占,不关中断。这可能导致在中断处理函数中使用spin_lock时,如果同一个锁在中断中被争夺,就会死锁。所以spin_lock_irqsave更适合在可能被中断上下文访问的共享资源上使用。 另外,用户提到的性能问题,引用[2]指出spin_lock_irqsave能不用就不用,因为关闭中断会影响系统响应性能。但正确使用需要开发者有足够经验,确保不会出现死锁。因此,两者的选择取决于是否可能被中断处理程序访问,以及开发者对代码路径的掌控程度。 需要进一步解释的是,spin_lock_irqsave保存中断状态是为了在释放锁后恢复之前的中断状态,而不是简单地开启中断,这可能在嵌套环境中很重要。而spin_lock不会修改中断状态,适用于确定不会有中断竞争的情况。 总结区别点:中断处理、状态保存、使用场景。同时要生成相关问题,可能涉及何时选择哪种锁,或者错误使用导致的后果等。</think>### spin_lock_irqsave 与 spin_lock 的区别分析 在 Linux 内核同步机制中,`spin_lock_irqsave` `spin_lock` 的主要差异体现在 **中断控制** **使用场景** 上: 1. **中断处理机制** - `spin_lock` 仅通过关闭内核抢占(`preempt_disable()`)来保护临界区,但 **不关闭本地 CPU 中断**。若在中断上下文中存在对同一锁的竞争,可能导致死锁[^2]。 - `spin_lock_irqsave` 会在加锁前 **禁用本地 CPU 中断** 并保存中断状态,解锁时恢复原状态。其实现包含: ```c local_irq_save(flags); // 保存中断状态并禁用中断 preempt_disable(); // 关闭抢占 ``` 对应的解锁操作 `spin_unlock_irqrestore()` 会恢复中断状态[^3][^4]。 2. **状态保存与恢复** - `spin_lock_irqsave` 通过 `flags` 变量保存中断状态,确保临界区执行后恢复原有中断配置,适用于嵌套调用或不确定中断初始状态的场景[^3]。 - `spin_lock` 不涉及中断状态保存,因此必须确保调用时 **本地中断已启用**,否则可能引发不可预知行为。 3. **适用场景** - `spin_lock` 适用于 **线程上下文** 且确定 **无中断处理程序竞争同一锁** 的情况(如非中断共享的数据结构)[^2]。 - `spin_lock_irqsave` 用于 **可能被中断上下文访问的共享资源**(如中断处理函数与线程共享的缓冲区),避免中断重入导致的死锁[^1]。 #### 示例代码对比 ```c // 使用 spin_lock_irqsave unsigned long flags; spin_lock_irqsave(&lock, flags); // 禁用中断并保存状态 // 临界区操作 spin_unlock_irqrestore(&lock, flags); // 恢复中断状态 // 使用 spin_lock spin_lock(&lock); // 仅关闭抢占 // 临界区操作(假设无中断竞争) spin_unlock(&lock); ``` #### 性能与风险权衡 - `spin_lock` 的性能更高,但错误使用(如在中断可能竞争的场景)会导致死锁。 - `spin_lock_irqsave` 安全性更强,但禁用中断会增加延迟,影响实时性[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值