python 进程池

一、概念

进程池,在进程池中有5(自定义)个进程,有n个任务等待进入进程池,一次只能进入5个任务

优点:节省了n-5个进程的内存空间,n个进程的创建时间

信号量:一次只允许固定的进程进行操作,进程的内存空间和创建时间都没减少,只减轻了操作系统的压力

二、常用方法

close()方法

  作用:进程池禁止任务进入

  格式:obj.close()

join()方法的

  作用:感知进程池的任务结束

  格式:obj.join()

三、map()方法

特点:异步,自带close()方法和join()方法

格式:map(函数名, 可迭代对象)

import time
from multiprocessing import Pool


def test(n):
    n = n + 1
    time.sleep(0.5)
    print(n)


if __name__ == '__main__':
    p = Pool(5)     # 进程池中有5个任务
    p.map(test, range(30))      # 参数是0-29,执行30个任务,是异步执行,打印的结果不是按顺序执行
from multiprocessing import Pool
import time


def str_add(s):
    new_s = s + '_sb'
    time.sleep(0.5)
    print(new_s)


if __name__ == '__main__':
    p = Pool(3)     # 进程池3个进程
    p.map(str_add, ['joker', 'mark', 'peter', 'hacker', 'richard'])     # 5个任务, 异步
from multiprocessing import Pool
import time
import random


def str_add(s):
    new_s = s + '**'
    time.sleep(random.randrange(1, 3))
    print(new_s)


if __name__ == '__main__':
    p = Pool(3)     # 进程池3个进程
    p.map(str_add, 'hello_world')     # 5个任务, 异步

四、apply()

特点:同步

格式:obj.apply(函数名, args=tuple)

from multiprocessing import Pool
import time


def str_add(s):
    new_s = s + '**'
    time.sleep(0.5)
    print(new_s)


if __name__ == '__main__':
    p = Pool(3)     # 进程池3个进程
    for i in range(3):
        p.apply(str_add, args=('cv%s' % i,))    # 同步,结果一个接着一个打印

五、apply_async

特点:异步,需要close()和join()方法

格式:obj.apply_async(函数名, args=tuple)

from multiprocessing import Pool
import time


def str_add(s):
    new_s = s + '**'
    time.sleep(0.5)
    print(new_s)


if __name__ == '__main__':
    p = Pool(3)     # 进程池3个进程
    for i in range(10):
        p.apply_async(str_add, args=('cv%s' % i,))    # 异步,结果一个接着一个打印
    p.close()   # 结束进程池接收任务
    p.join()    # 感知进程池中的任务执行结束

六、返回值

1、map()

"""
map()方法自带close()方法和join()方法
所有的进程都执行完毕后,赋值给ret
"""
from multiprocessing import Pool
import time


def mun_mul(n):
    time.sleep(0.5)
    return n*n


if __name__ == '__main__':
    p = Pool(3)     # 进程池3个进程
    ret = p.map(mun_mul, range(10))
    print(ret)  # [0, 1, 4, 9, 16, 25, 36, 49, 64, 81]

2、apply

"""
apply(),进程同步,一个一个打印返回值
"""
from multiprocessing import Pool
import time


def mun_mul(n):
    time.sleep(0.5)
    return n*n


if __name__ == '__main__':
    p = Pool(3)     # 进程池3个进程
    for i in range(10):
        ret = p.apply(mun_mul, args=(i, ))  # 同步
        print(ret)  
"""
apply_async()是异步,但打印的数据是一个接着一个
原因:get()方法
"""
from multiprocessing import Pool
import time


def mun_mul(n):
    time.sleep(0.5)
    return n*n


if __name__ == '__main__':
    p = Pool(3)     # 进程池3个进程
    for i in range(10):
        ret = p.apply_async(mun_mul, args=(i, ))  # 异步
        # print(ret)  # 结果是对象
        print(ret.get())
from multiprocessing import Pool
import time


def mun_mul(n):
    time.sleep(0.7)
    return n*n


if __name__ == '__main__':
    p = Pool(4)     # 进程池3个进程
    ret_li = []
    for i in range(10):
        ret = p.apply_async(mun_mul, args=(i, ))  # 异步
        ret_li.append(ret)
        # print(ret)  # 结果是对象
    for o in ret_li:
        print(o.get())

七、回调函数

"""
回调函数:callback=函数名
函数名的参数,是func的返回值
回到的进程是主进程
"""
from multiprocessing import Pool
import os
import time


def mun_mul(n):
    time.sleep(0.7)
    print('1  ---- %s' % os.getppid())
    return 2 * n


def test2(m):
    print('2  ---- %s' % os.getppid())
    print(m*2)


if __name__ == '__main__':
    p = Pool(4)     # 进程池3个进程
    print('3  ---- %s' % os.getppid())
    ret_li = []
    for i in range(10):
        p.apply_async(mun_mul, args=(i, ), callback=test2)  # 异步
    p.close()
    p.join()

 

转载于:https://www.cnblogs.com/wt7018/p/11062237.html

### Python 进程池 (Pool) 的使用教程 #### 什么是进程池? `multiprocessing.Pool` 是 Python 中用于管理多个进程的一个工具。它可以自动分配任务给不同的进程,并收集其返回的结果。这种方式非常适合处理大量独立的任务,能够充分利用多核 CPU 资源[^1]。 --- #### `multiprocessing.Pool` 的基本用法 以下是创建和使用进程池的一般流程: 1. **导入必要的库** 需要引入 `multiprocessing` 库。 2. **定义目标函数** 定义一个函数作为目标任务,该函数将在各个进程中运行。 3. **初始化进程池** 使用 `multiprocessing.Pool()` 初始化一个进程池对象,可以通过参数指定并发的进程数。 4. **提交任务** 可以通过 `.apply_async()` 方法异步提交任务,或者使用 `.map()` 方法批量分发任务。 5. **关闭并等待完成** 使用 `.close()` 关闭进程池,不再接受新的任务;使用 `.join()` 等待所有任务完成后退出。 --- #### 示例代码:使用 `multiprocessing.Pool` 下面是一个简单的示例,展示如何使用 `multiprocessing.Pool` 来并行化任务执行。 ```python import time from multiprocessing import Pool def worker(number): """模拟耗时任务""" print(f"Worker {number} started") time.sleep(2) print(f"Worker {number} finished") return number * number if __name__ == '__main__': with Pool(processes=3) as pool: # 创建包含 3 个进程的池 inputs = list(range(5)) results = pool.map(worker, inputs) # 将输入列表映射到 worker 函数 print("Results:", results) ``` 上述代码中: - `worker` 函数被传递给进程池中的不同进程分别执行。 - `pool.map()` 自动将输入数据分布到各进程中,并最终收集结果。 --- #### 常见问题及其解决方法 ##### 1. 主程序入口未保护 (`if __name__ == '__main__'`) 如果在 Windows 平台上直接调用多进程代码而没有加上 `if __name__ == '__main__'` 判断,则会引发无限递归错误。这是因为每次启动新进程都会重新加载整个脚本文件[^3]。 解决方案:始终确保主程序逻辑位于 `if __name__ == '__main__':` 下面。 --- ##### 2. 数据共享与同步问题 由于每个进程都有自己的内存空间,在某些情况下可能需要跨进程共享状态或变量。然而,默认情况下无法直接访问其他进程的数据[^4]。 解决方案:可以借助 `multiprocessing.Manager` 或者全局队列/锁机制来实现安全的数据交换。 --- ##### 3. 异常捕获困难 当某个子进程抛出了异常时,父进程未必能立即感知到这一情况,这可能导致调试变得复杂。 解决方案:可以在回调函数里记录日志或将异常信息存入特定容器供后续分析。 --- ### 总结 通过合理配置和运用 `multiprocessing.Pool` ,开发者不仅可以简化大规模分布式运算的设计过程,还能显著提升应用程序性能。不过需要注意的是,实际开发过程中还需考虑平台差异以及潜在的风险因素。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值