multiprocessing(2)---communication between subprocesses

本文介绍Python中进程间通信的两种方式:队列(queue)和管道(pipe)。队列适用于多个进程间的通信,支持阻塞和非阻塞的数据放入与获取;管道则用于两个进程间的双向数据传递,支持发送与接收数据。通过实例演示了队列和管道的使用方法。


Queue

Used among multiple processes.

Program

from multiprocessing import Process, Queue
import os, random, time


# define the write function
def proc_write(q,urls):
        # print the process information
    print('Process {} is writing.'.format(os.getpid()))
    for url in urls:
        # put the url into the queue
        q.put(url)
        print('Put {} into queue.'.format(url))
        # make the proces wait for random secs
        time.sleep(random.random())

# define the read function
def proc_read(q):
    print('Process {} is reaing.'.format(os.getpid()))
    while True:
        # get the urls from the queue
        url=q.get()
        print('Get {} from queue.'.format(url))


if __name__ == '__main__':
        # father process create a queue and pass it to subprocesses
        q=Queue()
        # create the write1 write2 read1 subprocesses
        proc_write1=Process(target=proc_write,args=(q,['url1','url2','url3']))
        proc_write2=Process(target=proc_write,args=(q,['url4','url5','url6']))
        proc_read1=Process(target=proc_read,args=(q,))
        # start the subprocesses
        proc_write1.start()
        proc_write2.start()
        proc_read1.start()
        # bolck the main process, join() can only called by started process
        proc_write1.join()
        proc_write2.join()
        # proc_read is a dead loop, so it can only be terminated
        proc_read1.terminate()

#  Annotation:
# 
# 
#  queue.put(blocked, timeout),when blocked is defaulted to True 
#  and timeout is positive, if the queue is not full, the method put the data into 
#  the queue, otherwise during the timeout the method will block to wait until 
#  there is an opening in the queue and put the data, if it pass the timeout,
#  and there is still no opening, the method will raise a Queue.Full exception.
#  When bolcked is defaulted to False, if the queue is full, the method will 
#  raise the exception immediately.
# 
# 
#  queue.get(blocked, timeout)
#  When blocked is defaulted to True, and timeout is positive,
#  the method will try to return a data of queue and delete it from the queue,
#  if pass the timeout, the method still get no data, it will raise the Queue.Empty
#  exception.
#  When blocked is set to False, the method will raise the exception immeditely
#  if there is no data to return.
# 
# 
# 
# 
# 

Output

Process 15884 is writing.
Process 15684 is writing.
Put url1 into queue.
Put url4 into queue.
Process 7528 is reaing.
Get url4 from queue.
Get url1 from queue.
Put url2 into queue.
Get url2 from queue.
Put url5 into queue.
Get url5 from queue.
Put url3 into queue.
Get url3 from queue.
Put url6 into queue.
Get url6 from queue.

Pipe

Used between two processes.

Program

# Annotation:
# 
# 
# Pipe(duplex=True) method of multiprocessing.context.DefaultContext instance
# Returns two connection objects(conn1,conn2)(tuple) connected by a pipe
# Has a optional para duplex defaulted to be True, which means the pipe can pass
# data both directions,that is conn1 and con2 can both send(send) and recieve(recv).
# If duplex is False, conn1 can only send and conn2 can only recieve
# If there is nothing to recieve, recv will block all the way until the pipe closed
# and raise a EOFErrorf


from multiprocessing import Pipe, Process
import time, os, random

def proc_send(conn,urls):
    for url in urls:
        print('Process {} sending: {}'.format(os.getpid(),url))
        conn.send(url)
        time.sleep(random.random())


def pro_recv(conn):
    while True:
        print('Process {} recving: {}'.format(os.getpid(),conn.recv()))
        time.sleep(random.random())


if __name__=="__main__":
    pipe=Pipe()
    p1=Process(target=proc_send,args=(pipe[0],['url_'+str(i) for i in range(10)]))
    p2=Process(target=pro_recv,args=(pipe[1],))
    p1.start()
    p2.start()
    p1.join()
    p2.terminate()


Output

Process 19352 sending: url_0
Process 1620 recving: url_0
Process 19352 sending: url_1
Process 1620 recving: url_1
Process 19352 sending: url_2
Process 1620 recving: url_2
Process 19352 sending: url_3
Process 1620 recving: url_3
Process 19352 sending: url_4
Process 1620 recving: url_4
Process 19352 sending: url_5
Process 1620 recving: url_5
Process 19352 sending: url_6
Process 1620 recving: url_6
Process 19352 sending: url_7
Process 19352 sending: url_8
Process 1620 recving: url_7
Process 19352 sending: url_9
先展示下效果 https://pan.quark.cn/s/a4b39357ea24 遗传算法 - 简书 遗传算法的理论是根据达尔文进化论而设计出来的算法: 人类是朝着好的方向(最优解)进化,进化过程中,会自动选择优良基因,淘汰劣等基因。 遗传算法(英语:genetic algorithm (GA) )是计算数学中用于解决最佳化的搜索算法,是进化算法的一种。 进化算法最初是借鉴了进化生物学中的一些现象而发展起来的,这些现象包括遗传、突变、自然选择、杂交等。 搜索算法的共同特征为: 首先组成一组候选解 依据某些适应性条件测算这些候选解的适应度 根据适应度保留某些候选解,放弃其他候选解 对保留的候选解进行某些操作,生成新的候选解 遗传算法流程 遗传算法的一般步骤 my_fitness函数 评估每条染色体所对应个体的适应度 升序排列适应度评估值,选出 前 parent_number 个 个体作为 待选 parent 种群(适应度函数的值越小越好) 从 待选 parent 种群 中随机选择 2 个个体作为父方和母方。 抽取父母双方的染色体,进行交叉,产生 2 个子代。 (交叉概率) 对子代(parent + 生成的 child)的染色体进行变异。 (变异概率) 重复3,4,5步骤,直到新种群(parentnumber + childnumber)的产生。 循环以上步骤直至找到满意的解。 名词解释 交叉概率:两个个体进行交配的概率。 例如,交配概率为0.8,则80%的“夫妻”会生育后代。 变异概率:所有的基因中发生变异的占总体的比例。 GA函数 适应度函数 适应度函数由解决的问题决定。 举一个平方和的例子。 简单的平方和问题 求函数的最小值,其中每个变量的取值区间都是 [-1, ...
### 多进程分布式处理简介 在Python中,`multiprocessing`模块提供了创建和管理多个进程的能力。对于分布式处理而言,这意味着可以在不同的计算机上运行这些进程,并通过网络进行通信[^1]。 #### 使用Socket实现多进程间通信 一种常见的做法是利用套接字(Sockets),即在网络编程中的接口标准,用于不同主机上的应用程序之间的双向通信。具体来说,在一个典型的客户端-服务器架构里: - **服务器端**监听来自客户端的消息请求; - 当收到消息后执行相应的操作并将结果反馈给客户端; - 客户端负责向指定地址发起连接尝试并向服务端传递参数或指令。 这种模式非常适合于构建分布式的计算环境,其中某些节点作为“工作者”,专门用来完成特定的任务;而另一些则扮演协调者的角色——分发任务、收集成果等[^2]。 ```python import socket from multiprocessing import Process, Queue def server(q): s = socket.socket(socket.AF_INET, socket.SOCK_STREAM) host = '' port = 12345 s.bind((host, port)) while True: conn, addr = s.accept() data = conn.recv(1024).decode('utf8') q.put(data) response = "Received" conn.sendall(response.encode()) conn.close() if __name__ == '__main__': queue = Queue() p_server = Process(target=server, args=(queue,)) p_server.start() # 主进程中可以继续做其他事情... ``` 上述代码展示了简单的TCP服务器逻辑,它能够接收外部传入的数据并通过队列共享给主程序或其他子进程使用。这只是一个基础框架,实际应用时还需要考虑错误处理机制、并发性能优化等问题。 #### 进程之间数据交换的方式 除了基本的socket通信外,还可以采用更高级别的库如ZeroMQ、RabbitMQ来进行跨平台的消息传输和服务调用。另外,当涉及到复杂的业务场景比如机器学习模型训练时,则可能需要用到PyTorch DDP (Distributed Data Parallel) 或者 TensorFlow 的 Estimator API 来简化开发流程并提高效率[^3]。 例如,在深度学习领域内,可以通过如下方式设置一个多GPU/多机训练方案: ```python import torch.distributed as dist import torch.nn as nn import torchvision.models as models model = models.resnet50(pretrained=True) class ModelWrapper(nn.Module): def __init__(self, model): super().__init__() self.model = model def forward(self, x): output = self.model(x) return output.mean(dim=-1) wrapped_model = ModelWrapper(model) dist.init_process_group( backend='nccl', init_method="tcp://localhost:23456", rank=rank_id, world_size=num_workers ) torch.cuda.set_device(rank_id % num_gpus_per_node) ddp_model = nn.parallel.DistributedDataParallel(wrapped_model.to(f'cuda:{rank_id}')) ``` 这段代码片段说明了如何在一个由多个工作节点组成的集群环境中部署ResNet50神经网络模型,并让其支持大规模图像分类任务下的高效并行化运算过程。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值