python进程join会让程序线性执行_Python程序中的进程操作-进程同步(multiprocess.Lock)...

本文通过Python的multiprocessing模块探讨了多进程中的数据安全问题。首先介绍了多进程抢占输出资源的现象,然后展示了如何使用锁实现进程同步,避免并发导致的数据错乱。接着,通过模拟抢票场景,演示了不加锁时数据的写入错乱,最后通过加锁确保了数据的安全,但牺牲了效率。文章强调了在并发编程中数据安全的重要性,并提倡使用队列和管道等机制避免复杂的数据同步和锁问题,以提高程序的可扩展性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Python程序中的进程操作-进程同步(multiprocess.Lock)

一、多进程抢占输出资源

import os

import time

import random

from multiprocessing import Process

def work(n):

print('%s: %s is running' %(n,os.getpid()))

time.sleep(random.random())

print('%s:%s is done' %(n,os.getpid()))

if __name__ == '__main__':

for i in range(3):

p=Process(target=work,args=(i,))

p.start()

二、使用锁维护执行顺序

# 由并发变成了串行,牺牲了运行效率,但避免了竞争

import os

import time

import random

from multiprocessing import Process,Lock

def work(lock,n):

lock.acquire()

print('%s: %s is running' % (n, os.getpid()))

time.sleep(random.random())

print('%s: %s is done' % (n, os.getpid()))

lock.release()

if __name__ == '__main__':

lock=Lock()

for i in range(3):

p=Process(target=work,args=(lock,i))

p.start()

上面这种情况虽然使用枷锁的形式实现了顺序的执行,但是程序又变成串行了,这样确实会浪费了时间,却保证了数据的安全。接下来,我们以模拟抢票为例,来看看数据安全的重要性。

三、多进程同时抢购余票

# 文件db的内容为:{"count":1}

# 注意一定要用双引号,不然json无法识别

# 并发运行,效率高,但竞争写同一文件,数据写入错乱

from multiprocessing import Process,Lock

import time,json,random

def search():

dic=json.load(open('db'))

print('剩余票数%s' %dic['count'])

def get():

dic=json.load(open('db'))

time.sleep(0.1) # 模拟读数据的网络延迟

if dic['count'] >0:

dic['count']-=1

time.sleep(0.2) # 模拟写数据的网络延迟

json.dump(dic,open('db','w'))

print('购票成功')

def task():

search()

get()

if __name__ == '__main__':

for i in range(100): # 模拟并发100个客户端抢票

p=Process(target=task)

p.start()

四、使用锁来保证数据安全

# 文件db的内容为:{"count":5}

# 注意一定要用双引号,不然json无法识别

# 并发运行,效率高,但竞争写同一文件,数据写入错乱

from multiprocessing import Process,Lock

import time,json,random

def search():

dic=json.load(open('db'))

print('剩余票数%s' %dic['count'])

def get():

dic=json.load(open('db'))

time.sleep(random.random()) # 模拟读数据的网络延迟

if dic['count'] >0:

dic['count']-=1

time.sleep(random.random()) # 模拟写数据的网络延迟

json.dump(dic,open('db','w'))

print('购票成功')

else:

print('购票失败')

def task(lock):

search()

lock.acquire()

get()

lock.release()

if __name__ == '__main__':

lock = Lock()

for i in range(100): # 模拟并发100个客户端抢票

p=Process(target=task,args=(lock,))

p.start()

加锁可以保证多个进程修改同一块数据时,同一时间只能有一个任务可以进行修改,即串行的修改,没错,速度是慢了,但牺牲了速度却保证了数据安全。

虽然可以用文件共享数据实现进程间通信,但问题是:

效率低(共享数据基于文件,而文件是硬盘上的数据)

需要自己加锁处理

因此我们最好找寻一种解决方案能够兼顾:

效率高(多个进程共享一块内存的数据)

帮我们处理好锁问题。这就是mutiprocessing模块为我们提供的基于消息的IPC通信机制:队列和管道。

队列和管道都是将数据存放于内存中,队列又是基于(管道+锁)实现的,可以让我们从复杂的锁问题中解脱出来,我们应该尽量避免使用共享数据,尽可能使用消息传递和队列,避免处理复杂的同步和锁问题,而且在进程数目增多时,往往可以获得更好的可获展性

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值