Python多线程异步调用

  本博客主要实现一个python多线程异步调用的demo。
  程序功能简介:调用main_func作为主程序,主程序内部创建两个线程,分别建立线程ID、线程名和线程内部执行延迟时间,两个线程内部分别调用函数print_time打印时间。exitFlag作为标志位,如果为1表示线程不打印时间直接退出。
  结果分析:程序主线程已经执行结束,并不影响其建立的线程执行,所以可以实现异步调用。

程序代码:

import threading
import time

exitFlag = 0

class myThread (threading.Thread):
    def __init__(self, threadID, name, delay):
        threading.Thread.__init__(self)
        self.threadID = threadID
        self.name = name
        self.delay = delay
    def run(self):
        print ("开始线程:" + self.name)
        print_time(self.name, self.delay, 3)
        print ("退出线程:" + self.name)

def print_time(threadName, delay, times):
    for i in range(times):
        if exitFlag:
            threadName.exit()
        time.sleep(delay)
        print ("%s: %s" % (threadName, time.ctime(time.time())))

def main_func():
    # 创建新线程
    thread1 = myThread(1, "Thread-1", 1)
    thread2 = myThread(2, "Thread-2", 2)
    # 开启新线程
    thread1.start()
    thread2.start()
    return '主程序执行结束!'
if __name__ == "__main__":
    result = main_func()
    print(result)

执行结果

在这里插入图片描述

### 实现多线程异步调用Python 的 FastAPI 中实现多线程异步调用可以通过多种方式完成。FastAPI 是基于 Starlette 和 Pydantic 构建的现代 Web 框架,支持异步操作。 #### 使用 `concurrent.futures` 库 为了利用多线程处理同步阻塞 I/O 或 CPU 密集型任务,在 FastAPI 路由处理器中可以引入 `ThreadPoolExecutor` 来执行这些耗时的任务而不阻塞主线程: ```python from fastapi import FastAPI, BackgroundTasks import concurrent.futures import time app = FastAPI() def long_running_task(task_id: int): """模拟长时间运行的任务""" print(f"Task {task_id} started.") time.sleep(5) # 假设这是个耗时的操作 print(f"Task {task_id} finished.") @app.get("/run-task/{task_id}") async def run_background_task(task_id: int, background_tasks: BackgroundTasks): executor = concurrent.futures.ThreadPoolExecutor(max_workers=8) future = executor.submit(long_running_task, task_id) return {"message": f"Started Task {task_id}"} ``` 此方法允许后台线程池中的工作线程并行地执行多个实例化对象的方法[^1]。 #### 利用内置的异步特性 对于真正的非阻塞 IO 操作,则应该充分利用 Python 自身提供的协程机制以及 FastAPI 对其的支持来编写更高效的代码: ```python from fastapi import FastAPI import asyncio app = FastAPI() async def async_long_running_task(): await asyncio.sleep(5) # 非阻塞等待 print("Async task completed") @app.post("/start-async-task/") async def start_async_task(): loop = asyncio.get_event_loop() task = loop.create_task(async_long_running_task()) response_data = {'status': 'success', 'info': 'Task initiated'} return response_data ``` 上述例子展示了如何创建一个新的异步任务并在不阻碍 HTTP 请求响应的情况下启动它。这种方式非常适合用于网络请求或其他形式的 I/O-bound 工作负载[^2]。 #### 结合第三方库如 Celery 进行分布式任务调度 当应用程序规模扩大到一定程度之后,可能还需要考虑更加复杂的场景比如跨服务器分布式的任务队列管理工具——Celery 就是一个不错的选择。它可以很好地集成进 FastAPI 并提供强大的消息传递功能以便于构建大规模应用系统[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值