Django作为基本的Web框架,Celery用来处理异步任务,两者搭建分析服务器部署TensorFlow模型。(数据服务器通过POST请求与分析服务器进行任务发布和结果接收,这里不是重点。)在这里主要记录一下解决的两个问题:
1.我在utils.py中写好了TensorFlow的模型预测代码,我每次调用执行utils.py这个代码的时候,我想在不同的卡上执行。
出发点是为了充分利用celery处理异步任务的效率,因为每次模型推理的时候模型参数都需要加载到GPU中,如果不可以通过制定任务使用的GPU来合理分配资源,GPU肯定会爆显存。
解决办法是利用celery的任务队列特性,通过开启多个任务worker,然后在开启的时候制定使用的GPU,再对celery中的启动参数【-c】(也就是concurrency,表示最大并行子进程数目)进行合理的配置,就可以做到既不会爆显存,又可以让服务器上的GPU都利用起来。
CUDA_VISIBLE_DEVICES=0 nohup python manage.py celery worker -E -l info -n analyze --maxtasksperchild 100 -c 1 -Q analyze_task >analyze0.log 2>&1 &
CUDA_VISIBLE_DEVICES=1 nohup python manage.py celery worker -E -l info -n analyze --maxtasksperchild 100 -c 1 -Q analyze_task >analyze1.log 2>&1 &
CUDA_VISIBLE_DEVICES=2 nohup python manage.py celery worker -E -l info -n analyze --maxtasksperchild 100 -c 1 -Q analyze_task >analyze2.log 2>&1 &
CUDA_VISIBLE_DEVICES=3 nohup python manag

本文介绍了如何利用Django和Celery部署TensorFlow模型,解决在异步任务中如何分配GPU资源避免显存爆满以及如何防止模型重复加载的问题。通过设置Celery任务队列和并发数,实现GPU资源的有效利用。同时,通过全局变量处理模型预加载和推理,确保模型只加载一次,简化了多GPU环境下的模型管理。
最低0.47元/天 解锁文章
729





