Python多进程队列(Queue)和生产者消费者模型

本文介绍了Python中利用多进程和队列实现生产者消费者模型,以解决并发问题。通过阻塞队列,生产者和消费者解耦,队列作为缓冲区平衡两者处理速度。JoinableQueue模块的使用使得消费者能通知生产者任务完成,避免程序卡死。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Python中每个进程的内存是相互隔离的,那么如何实现进程之间的通信了,multiprocessing模块提供了队列和管道2种方式来实现进程之间的消息传递。队列的底层就是通过管道和锁来实现的。
队列相关的方法如下,队列中的数据先进先出

from multiprocessing import Process,Queue

q = Queue([maxsize])  # 创建一个队列,maxsize表示队列的大小,即可以存放几条数据,如果省略则可以存放无穷多条数据,取决于你内存空间的大小

q.put(data,block=True,timeout=3) 
# 往队列里面存数据data
# 如果block为True(默认值),并且timeout为正值,该方法会阻塞timeout指定的时间,直到该队列有剩余的空间。如果超时,会抛出Queue.Full异常。如果block为False,但该Queue已满,会立即抛出Queue.Full异常。

q.get(block=True,timeout=3) 
# 从队列里面去取数据,该方法了put方法一样,也是有block和timeout2个参数。用法同参建put方法。

q.get_nowait():# 等同于q.get(block=False)
q.put_nowait():# 等同于q.put(block=False)

q.empty() # 判断队列是否为空
q.full() # 判断队列是否已经满了
q.qsize() # 返回队列中存放数据的个数
# 由于多进程是并发执行的,随时都有可能向队列里面存放数据,也可能葱队列里面去取数据。故这个结果并不是很可靠。

q.cancel_join_thread() # 不会在进程退出时自动连接后台线程。可以防止join_thread()方法阻塞
q.close() # 关闭队列,防止队列中加入更多数据。调用此方法,后台线程将继续写入那些已经入队列但尚未写入的数据,但将在此方法完成时马上关闭。如果q被垃圾收集,将调用此方法。关闭队列不会在队列使用者中产生任何类型的数据结束信号或异常。例如,如果某个使用者正在被阻塞在get()操作上,关闭生产者中的队列不会导致get()方法返回错误。
q.join_thread() # 连接队列的后台线程。此方法用于在调用q.close()方法之后,等待所有队列项被消耗。默认情况下,此方法由不是q的原始创建者的所有进程调用。调用q.cancel_join_thread方法可以禁止这种行为

生产者消费者模型

在并发编程中使用生产者和消费者模式能够解决绝大多数并发问题。该模式通过平衡生产线程和消费线程的工作能力来提高程序的整体处理数据的速度。

为什么要使用生产者和消费者模式

在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。

什么是生产者消费者模式

生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。

from multiprocessing import Process,Queue
import time,random,os

def get_data(q,name):
    while True:
        data=q.get()
        if data is None: # 获取结束信号,跳出死循环,不然等数据取玩了会一直卡在此处
            break
        time.sleep(random.randint(1,3))
        print('%s 取出了 %s' %(name,data))

def create_data(q,name):
    for i in range(5):
        time.sleep(random.randint(1,3))
        data='数据%s' %i
        q.put(data)
        print('%s 生产了 %s' %(name,data))

    q.put(None) # 结束信号,不一定是None可以自己定义,就是告诉消费者已经停止生产数据了

if __name__ == '__main__':
    q=Queue()
    p1=Process(target=create_data,args=(q,"生产者")) #生产者
    p1.start()
    c1=Process(target=get_data,args=(q,"消费者")) #消费者
    c1.start()
生产者 生产了 数据0
消费者 取出了 数据0
生产者 生产了 数据1
生产者 生产了 数据2
消费者 取出了 数据1
生产者 生产了 数据3
消费者 取出了 数据2
生产者 生产了 数据4
消费者 取出了 数据3
消费者 取出了 数据4

从上面一个例子我们可以看出来,队列中的数据是先进先出的,而且生产完之后还需要手动的向队列里面添加一个结束信号,如果忘了添加结束信号,消费者则会一直在那等着,程序就会卡死。如果有多个消费者,则需要添加多个结束信号。为此,在Python中有另外一个模块JoinableQueue帮助我们解决这个问题

JoinableQueue的用法

# JoinableQueue除了拥有和Queue一样的方法外,还有2个用来在生产者和消费者之间通信的方法
q.task_done() # 在消费者q.get()取出数据并处理后调用此方法告诉生产者,数据已经被处理了。每取出一个数据,就需要通过此方法发送一次信号给生产者,否则会抛出ValueError异常
q.join() # 生产者调用此方法进行阻塞,直到队列中所有的数据都被处理
from multiprocessing import Process,JoinableQueue
import time,random

def get_data(q,name):
    while True:
        data=q.get()
        if data is None: # 获取结束信号,跳出死循环,不然等数据取玩了会一直卡在此处
            break
        time.sleep(random.randint(1,5))
        print('%s 取出了 %s' %(name,data))
        q.task_done()

def create_data(q,name):
    for i in range(5):
        time.sleep(random.randint(1,5))
        data='数据%s' %i
        q.put(data)
        print('%s 生产了 %s' %(name,data))
    q.join() # 让生产者在此处阻塞,等待消费者处理完所有数据。

if __name__ == '__main__':
    q=JoinableQueue()
    p1=Process(target=create_data,args=(q,"生产者")) #生产者
    p1.start()
    c1=Process(target=get_data,args=(q,"消费者")) #消费者
    c1.daemon = True # 将消费者设置为守护进程,这样主进程结束后,该进程也会跟着结束
    c1.start()
    p1.join() # 此处让主进程等待生产者

我们在这里分析一下上面的例子:
首先主线程开启生产者进程开始生产数据,然后开启消费者进程处理数据。由于p1.join()此时主线程会等着生产者进程。生产者生产数据,消费者处理完一条数据就通过q.task_done()告诉生产者已经处理完一条数据,此时生产者q.join()会一直阻塞,直到消费者处理完所有的数据。然后生产者线程任务执行结束。当生产者执行完后,主线程会在p1.join()处继续执行,当主线程执行结束后,由于消费者为守护进程,故消费者也跟着结束了。到此整个程序执行完毕。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值