python进程池pool

本文深入讲解了Python中multiprocessing模块的Pool方法,演示了如何利用进程池管理大量并发任务,提高程序执行效率,并展示了进程间通信的实现。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

进程池Pool
当需要创建的子进程数量不多时,可以直接利用multiprocessing中的Process动态成生多个进程,但如果是上百甚至上千个目标,手动的去创建进程的工作量巨大,此时就可以用到multiprocessing模块提供的Pool方法。

初始化Pool时,可以指定一个最大进程数,当有新的请求提交到Pool中时,如果池还没有满,那么就会创建一个新的进程用来执行该请求;但如果池中的进程数已经达到指定的最大值,那么该请求就会等待,直到池中有进程结束,才会用之前的进程来执行新的任务,请看下面的实例:

# -*- coding:utf-8 -*-
from multiprocessing import Pool
import os, time, random

def worker(msg):
    t_start = time.time()
    print("%s开始执行,进程号为%d" % (msg,os.getpid()))
    # random.random()随机生成0~1之间的浮点数
    time.sleep(random.random()*2) 
    t_stop = time.time()
    print(msg,"执行完毕,耗时%0.2f" % (t_stop-t_start))

po = Pool(3)  # 定义一个进程池,最大进程数3
for i in range(0,10):
    # Pool().apply_async(要调用的目标,(传递给目标的参数元祖,))
    # 每次循环将会用空闲出来的子进程去调用目标
    po.apply_async(worker,(i,))

print("----start----")
po.close()  # 关闭进程池,关闭后po不再接收新的请求
po.join()  # 等待po中所有子进程执行完成,必须放在close语句之后
print("-----end-----")

运行结果:

----start----
0开始执行,进程号为21466
1开始执行,进程号为21468
2开始执行,进程号为21467
0 执行完毕,耗时1.01
3开始执行,进程号为21466
2 执行完毕,耗时1.24
4开始执行,进程号为21467
3 执行完毕,耗时0.56
5开始执行,进程号为21466
1 执行完毕,耗时1.68
6开始执行,进程号为21468
4 执行完毕,耗时0.67
7开始执行,进程号为21467
5 执行完毕,耗时0.83
8开始执行,进程号为21466
6 执行完毕,耗时0.75
9开始执行,进程号为21468
7 执行完毕,耗时1.03
8 执行完毕,耗时1.05
9 执行完毕,耗时1.69
-----end-----

multiprocessing.Pool常用函数解析:

apply_async(func[, args[, kwds]]) :使用非阻塞方式调用func(并行执行,堵塞方式必须等待上一个进程退出才能执行下一个进程),args为传递给func的参数列表,kwds为传递给func的关键字参数列表;
close():关闭Pool,使其不再接受新的任务;
terminate():不管任务是否完成,立即终止;
join():主进程阻塞,等待子进程的退出, 必须在close或terminate之后使用;
进程池中的Queue
如果要使用Pool创建进程,就需要使用multiprocessing.Manager()中的Queue(),而不是multiprocessing.Queue(),否则会得到一条如下的错误信息:

RuntimeError: Queue objects should only be shared between processes through inheritance.

下面的实例演示了进程池中的进程如何通信:

# -*- coding:utf-8 -*-

# 修改import中的Queue为Manager
from multiprocessing import Manager,Pool
import os,time,random

def reader(q):
    print("reader启动(%s),父进程为(%s)" % (os.getpid(), os.getppid()))
    for i in range(q.qsize()):
        print("reader从Queue获取到消息:%s" % q.get(True))

def writer(q):
    print("writer启动(%s),父进程为(%s)" % (os.getpid(), os.getppid()))
    for i in "itcast":
        q.put(i)

if __name__=="__main__":
    print("(%s) start" % os.getpid())
    q = Manager().Queue()  # 使用Manager中的Queue
    po = Pool()
    po.apply_async(writer, (q,))

    time.sleep(1)  # 先让上面的任务向Queue存入数据,然后再让下面的任务开始从中取数据

    po.apply_async(reader, (q,))
    po.close()
    po.join()
    print("(%s) End" % os.getpid())

运行结果:

(11095) start
writer启动(11097),父进程为(11095)
reader启动(11098),父进程为(11095)
reader从Queue获取到消息:i
reader从Queue获取到消息:t
reader从Queue获取到消息:c
reader从Queue获取到消息:a
reader从Queue获取到消息:s
reader从Queue获取到消息:t
(11095) End
### Python 中 `multiprocessing.Pool` 的用法 在 Python 中,`multiprocessing.Pool` 是一种用于并行执行函数的强大工具。它允许开发者通过多个输入值来实现跨多个进程的函数调用,从而提高程序性能[^1]。 #### 创建和初始化 Pool 对象 可以通过创建一个 `Pool` 实例来指定要使用的进程数量。如果未提供参数,则会默认使用机器上的 CPU 核心数作为进程的数量: ```python from multiprocessing import Pool pool = Pool(processes=4) # 使用 4 个进程 ``` #### 并行化方法:map 和 apply_async `Pool` 提供了几种主要的方法来进行任务分配: - **`map(func, iterable)`**: 将可迭代对象中的每个元素传递给目标函数,并返回结果列表。此操作是阻塞式的,在所有子进程完成前不会继续运行主线程。 ```python results = pool.map(my_function, my_iterable) ``` - **`apply_async(func[, args][, kwds])`**: 非阻塞方式提交单次任务到工作进程中去执行。可以附加回调函数以获取计算后的数据。 ```python result = pool.apply_async(my_function, (arg1,)) final_result = result.get() ``` 下面是一个完整的 IP 扫描器例子展示如何利用 `multiprocessing.Pool` 来加速网络请求过程[^2]: ```python import multiprocessing import subprocess def ping(host): try: output = subprocess.check_output(['ping', '-c', '1', host]) return True, host except Exception as e: return False, host if __name__ == '__main__': TNUM = 8 # 定义线程/进程数目 def ipScan(ip_list): with multiprocessing.Pool(processes=TNUM) as pool: results = pool.map(ping, ip_list) active_ips = [] for reachable, ip in results: if reachable: print(f"{ip} is up!") active_ips.append(ip) return active_ips ips_to_check = ["192.168.0." + str(i) for i in range(1, 255)] live_hosts = ipScan(ips_to_check) print("Live hosts:", live_hosts) ``` 上述脚本定义了一个简单的 Ping 函数用来测试主机连通性,并借助于 `multiprocessing.Pool` 同时对大量 IP 地址发起探测请求,显著提升了效率。 ### 关闭资源管理 当所有的任务都已分发完毕之后,应该关闭池不再接受新的任务,并等待现有任务结束: ```python pool.close() # 停止接收新任务 pool.join() # 等待所有工作者退出 ``` 这一步骤非常重要,因为它确保了所有的工作都在终止之前被妥善处理。 --- 相关问题
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值