multiprocessing(2)---communication between subprocesses

本文介绍Python中进程间通信的两种方式:队列(queue)和管道(pipe)。队列适用于多个进程间的通信,支持阻塞和非阻塞的数据放入与获取;管道则用于两个进程间的双向数据传递,支持发送与接收数据。通过实例演示了队列和管道的使用方法。


Queue

Used among multiple processes.

Program

from multiprocessing import Process, Queue
import os, random, time


# define the write function
def proc_write(q,urls):
        # print the process information
    print('Process {} is writing.'.format(os.getpid()))
    for url in urls:
        # put the url into the queue
        q.put(url)
        print('Put {} into queue.'.format(url))
        # make the proces wait for random secs
        time.sleep(random.random())

# define the read function
def proc_read(q):
    print('Process {} is reaing.'.format(os.getpid()))
    while True:
        # get the urls from the queue
        url=q.get()
        print('Get {} from queue.'.format(url))


if __name__ == '__main__':
        # father process create a queue and pass it to subprocesses
        q=Queue()
        # create the write1 write2 read1 subprocesses
        proc_write1=Process(target=proc_write,args=(q,['url1','url2','url3']))
        proc_write2=Process(target=proc_write,args=(q,['url4','url5','url6']))
        proc_read1=Process(target=proc_read,args=(q,))
        # start the subprocesses
        proc_write1.start()
        proc_write2.start()
        proc_read1.start()
        # bolck the main process, join() can only called by started process
        proc_write1.join()
        proc_write2.join()
        # proc_read is a dead loop, so it can only be terminated
        proc_read1.terminate()

#  Annotation:
# 
# 
#  queue.put(blocked, timeout),when blocked is defaulted to True 
#  and timeout is positive, if the queue is not full, the method put the data into 
#  the queue, otherwise during the timeout the method will block to wait until 
#  there is an opening in the queue and put the data, if it pass the timeout,
#  and there is still no opening, the method will raise a Queue.Full exception.
#  When bolcked is defaulted to False, if the queue is full, the method will 
#  raise the exception immediately.
# 
# 
#  queue.get(blocked, timeout)
#  When blocked is defaulted to True, and timeout is positive,
#  the method will try to return a data of queue and delete it from the queue,
#  if pass the timeout, the method still get no data, it will raise the Queue.Empty
#  exception.
#  When blocked is set to False, the method will raise the exception immeditely
#  if there is no data to return.
# 
# 
# 
# 
# 

Output

Process 15884 is writing.
Process 15684 is writing.
Put url1 into queue.
Put url4 into queue.
Process 7528 is reaing.
Get url4 from queue.
Get url1 from queue.
Put url2 into queue.
Get url2 from queue.
Put url5 into queue.
Get url5 from queue.
Put url3 into queue.
Get url3 from queue.
Put url6 into queue.
Get url6 from queue.

Pipe

Used between two processes.

Program

# Annotation:
# 
# 
# Pipe(duplex=True) method of multiprocessing.context.DefaultContext instance
# Returns two connection objects(conn1,conn2)(tuple) connected by a pipe
# Has a optional para duplex defaulted to be True, which means the pipe can pass
# data both directions,that is conn1 and con2 can both send(send) and recieve(recv).
# If duplex is False, conn1 can only send and conn2 can only recieve
# If there is nothing to recieve, recv will block all the way until the pipe closed
# and raise a EOFErrorf


from multiprocessing import Pipe, Process
import time, os, random

def proc_send(conn,urls):
    for url in urls:
        print('Process {} sending: {}'.format(os.getpid(),url))
        conn.send(url)
        time.sleep(random.random())


def pro_recv(conn):
    while True:
        print('Process {} recving: {}'.format(os.getpid(),conn.recv()))
        time.sleep(random.random())


if __name__=="__main__":
    pipe=Pipe()
    p1=Process(target=proc_send,args=(pipe[0],['url_'+str(i) for i in range(10)]))
    p2=Process(target=pro_recv,args=(pipe[1],))
    p1.start()
    p2.start()
    p1.join()
    p2.terminate()


Output

Process 19352 sending: url_0
Process 1620 recving: url_0
Process 19352 sending: url_1
Process 1620 recving: url_1
Process 19352 sending: url_2
Process 1620 recving: url_2
Process 19352 sending: url_3
Process 1620 recving: url_3
Process 19352 sending: url_4
Process 1620 recving: url_4
Process 19352 sending: url_5
Process 1620 recving: url_5
Process 19352 sending: url_6
Process 1620 recving: url_6
Process 19352 sending: url_7
Process 19352 sending: url_8
Process 1620 recving: url_7
Process 19352 sending: url_9
【Koopman】遍历论、动态模态分解和库普曼算子谱特性的计算研究(Matlab代码实现)内容概要:本文围绕【Koopman】遍历论、动态模态分解和库普曼算子谱特性的计算研究展开,重点介绍基于Matlab的代码实现方法。文章系统阐述了遍历理论的基本概念、动态模态分解(DMD)的数学原理及其与库普曼算子谱特性之间的内在联系,展示了如何通过数值计算手段分析非线性动力系统的演化行为。文中提供了完整的Matlab代码示例,涵盖数据驱动的模态分解、谱分析及可视化过程,帮助读者理解并复现相关算法。同时,文档还列举了多个相关的科研方向和技术应用场景,体现出该方法在复杂系统建模与分析中的广泛适用性。; 适合人群:具备一定动力系统、线性代数与数值分析基础,熟悉Matlab编程,从事控制理论、流体力学、信号处理或数据驱动建模等领域研究的研究生、博士生及科研人员。; 使用场景及目标:①深入理解库普曼算子理论及其在非线性系统分析中的应用;②掌握动态模态分解(DMD)算法的实现与优化;③应用于流体动力学、气候建模、生物系统、电力系统等领域的时空模态提取与预测;④支撑高水平论文复现与科研项目开发。; 阅读建议:建议读者结合Matlab代码逐段调试运行,对照理论推导加深理解;推荐参考文中提及的相关研究方向拓展应用场景;鼓励在实际数据上验证算法性能,并尝试改进与扩展算法功能。
本系统采用微信小程序作为前端交互界面,结合Spring Boot与Vue.js框架实现后端服务及管理后台的构建,形成一套完整的电子商务解决方案。该系统架构支持单一商户独立运营,亦兼容多商户入驻的平台模式,具备高度的灵活性与扩展性。 在技术实现上,后端以Java语言为核心,依托Spring Boot框架提供稳定的业务逻辑处理与数据接口服务;管理后台采用Vue.js进行开发,实现了直观高效的操作界面;前端微信小程序则为用户提供了便捷的移动端购物体验。整套系统各模块间紧密协作,功能链路完整闭环,已通过严格测试与优化,符合商业应用的标准要求。 系统设计注重业务场景的全面覆盖,不仅包含商品展示、交易流程、订单处理等核心电商功能,还集成了会员管理、营销工具、数据统计等辅助模块,能够满足不同规模商户的日常运营需求。其多店铺支持机制允许平台方对入驻商户进行统一管理,同时保障各店铺在品牌展示、商品销售及客户服务方面的独立运作空间。 该解决方案强调代码结构的规范性与可维护性,遵循企业级开发标准,确保了系统的长期稳定运行与后续功能迭代的可行性。整体而言,这是一套技术选型成熟、架构清晰、功能完备且可直接投入商用的电商平台系统。 资源来源于网络分享,仅用于学习交流使用,请勿用于商业,如有侵权请联系我删除!
### 多进程分布式处理简介 在Python中,`multiprocessing`模块提供了创建和管理多个进程的能力。对于分布式处理而言,这意味着可以在不同的计算机上运行这些进程,并通过网络进行通信[^1]。 #### 使用Socket实现多进程间通信 一种常见的做法是利用套接字(Sockets),即在网络编程中的接口标准,用于不同主机上的应用程序之间的双向通信。具体来说,在一个典型的客户端-服务器架构里: - **服务器端**监听来自客户端的消息请求; - 当收到消息后执行相应的操作并将结果反馈给客户端; - 客户端负责向指定地址发起连接尝试并向服务端传递参数或指令。 这种模式非常适合于构建分布式的计算环境,其中某些节点作为“工作者”,专门用来完成特定的任务;而另一些则扮演协调者的角色——分发任务、收集成果等[^2]。 ```python import socket from multiprocessing import Process, Queue def server(q): s = socket.socket(socket.AF_INET, socket.SOCK_STREAM) host = '' port = 12345 s.bind((host, port)) while True: conn, addr = s.accept() data = conn.recv(1024).decode('utf8') q.put(data) response = "Received" conn.sendall(response.encode()) conn.close() if __name__ == '__main__': queue = Queue() p_server = Process(target=server, args=(queue,)) p_server.start() # 主进程中可以继续做其他事情... ``` 上述代码展示了简单的TCP服务器逻辑,它能够接收外部传入的数据并通过队列共享给主程序或其他子进程使用。这只是一个基础框架,实际应用时还需要考虑错误处理机制、并发性能优化等问题。 #### 进程之间数据交换的方式 除了基本的socket通信外,还可以采用更高级别的库如ZeroMQ、RabbitMQ来进行跨平台的消息传输和服务调用。另外,当涉及到复杂的业务场景比如机器学习模型训练时,则可能需要用到PyTorch DDP (Distributed Data Parallel) 或者 TensorFlow 的 Estimator API 来简化开发流程并提高效率[^3]。 例如,在深度学习领域内,可以通过如下方式设置一个多GPU/多机训练方案: ```python import torch.distributed as dist import torch.nn as nn import torchvision.models as models model = models.resnet50(pretrained=True) class ModelWrapper(nn.Module): def __init__(self, model): super().__init__() self.model = model def forward(self, x): output = self.model(x) return output.mean(dim=-1) wrapped_model = ModelWrapper(model) dist.init_process_group( backend='nccl', init_method="tcp://localhost:23456", rank=rank_id, world_size=num_workers ) torch.cuda.set_device(rank_id % num_gpus_per_node) ddp_model = nn.parallel.DistributedDataParallel(wrapped_model.to(f'cuda:{rank_id}')) ``` 这段代码片段说明了如何在一个由多个工作节点组成的集群环境中部署ResNet50神经网络模型,并让其支持大规模图像分类任务下的高效并行化运算过程。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值