Windows 结合 Docker 下使用 Django+Celery+Pool

前景提要:在mac环境中能正常使用的celery及pool多进程的各项功能,但是在Windows环境下无法正常使用,wsl踩过坑无法正常使用,遂切换到 Docker 方案

1、搭建Docker环境

我安装的是Docker桌面版,具体步骤不再赘述

2、编辑 dockerfile 文件

我的 dockerfile 文件放置在项目目录下

# 使用官方 Python 镜像作为基础镜像
FROM python:3.10.14
# 设置容器内的工作目录 /xxx与 docker-compose 文件的 /xxx 一致
WORKDIR /xxx
# 将 requirements.txt 复制到容器中的工作目录
COPY requirements.txt .
# 安装 Python 依赖项
RUN pip install --no-cache-dir -r requirements.txt
# 将应用程序代码复制到容器
COPY . .
# 设置环境变量
ENV PYTHONUNBUFFERED=1
# 公开端口
EXPOSE 8000
# 进行数据库迁移
RUN python manage.py migrate
# 指定容器启动时运行的命令
CMD ["python", "manage.py", "runserver", "0.0.0.0:8000"]

3、编辑 docker-compose.yml 文件

我的 docker-compose.yml 与 dockerfile 文件放置在相同目录,因为redis、db服务在Windows环境下已经运行,所以不需要Docker启动这两个服务

version: '3.8'  # 指定 Docker Compose 版本
services:
  django:  # Django 应用服务
    build: . # 指定构建上下文
    ports:
      - "8000:8000"  # 将主机的 8000 端口映射到容器的 8000 端口
    volumes:  # 设置映射才可以热更新
      - .:/xxx  # 把当前目录挂载到容器的 /xxx 目录
    environment:
      - DEBUG=1  # 设置环境变量,启用调试模式
  celery-beat: # celery beat
    build: .
    volumes:
      - .:/xxx  # 把当前目录挂载到容器的 /xxx 目录, 否则任务可能无法启动
    command: celery -A application.celery beat --loglevel=info
  celery-worker: # celery worker
    build: .
    volumes:
      - .:/xxx  # 把当前目录挂载到容器的 /xxx 目录, 否则任务可能无法启动
    command: celery -A application.celery worker -B --loglevel=info

4、打开终端运行项目

docker-compose up --build

8000端口能够正常访问时基本代表启动成功,此时多进程任务也能成功运行。

注意:

在 Docker 容器中,127.0.0.1 指的是容器自身,而不是宿主机。您需要使用宿主机的实际 IP 地址或使用特定的域名。对于 Docker Desktop,您可以使用 host.docker.internal 来访问宿主机。
所以在 Django 项目中我将 DATABASE_HOST、REDIS_HOST 都配置成了host.docker.internal

DATABASE_HOST = 'host.docker.internal'
REDIS_HOST = 'host.docker.internal'

如果你想看到celery的打印信息,可以使用run来调试,正式环境再切换为 delay 或其他

# fn.delay()
fn.run()
我想将frontend 也是用volumes,将其映射到/app/frontend目录,在/app/frontend下install以及build,如何实现 docker-compose.yml文件: version: '3' services: frontend: build: context: ./frontend dockerfile: Dockerfile ports: - 8010:80 restart: always backend: build: context: ./backend dockerfile: Dockerfile volumes: - /app/backend:/app environment: - CELERY_BROKER_URL=redis://redis:6379/0 command: python manage.py runserver 0.0.0.0:8000 ports: - 8011:8000 restart: always celery-worker: build: context: ./backend dockerfile: Dockerfile volumes: - /app/backend:/app environment: - CELERY_BROKER_URL=redis://redis:6379/0 command: celery -A server worker -l info --pool=solo --concurrency=1 depends_on: - redis - backend restart: always celery-beat: build: context: ./backend dockerfile: Dockerfile volumes: - /app/backend:/app environment: - CELERY_BROKER_URL=redis://redis:6379/0 command: celery -A server beat -l info --scheduler django_celery_beat.schedulers:DatabaseScheduler depends_on: - redis - backend restart: always redis: image: redis:latest ports: - 6379:6379 restart: always mysql: image: mysql:latest environment: - MYSQL_ROOT_PASSWORD=sacfxSql258147@ ports: - 8016:3306 volumes: - ./mysql:/var/lib/mysql restart: always frontend:dockerfile文件 FROM node:16.18.1 WORKDIR /app/frontend COPY package*.json ./ RUN npm install COPY . . RUN npm run build:prod FROM nginx:latest COPY --from=0 /app/frontend/dist/ /usr/share/nginx/html EXPOSE 80 CMD ["nginx", "-g", "daemon off;"]
07-14
我的代码跟docker-compose.yml文件放在/app目录下 /app/frontend存放前端代码 /app/backend存放后端代码 我想直接在/app/frontend直接install跟build再拷贝到容器内,如何实现 docker-compose.yml文件: version: '3' services: frontend: build: context: ./frontend dockerfile: Dockerfile ports: - 8010:80 restart: always backend: build: context: ./backend dockerfile: Dockerfile volumes: - /app/backend:/app environment: - CELERY_BROKER_URL=redis://redis:6379/0 command: python manage.py runserver 0.0.0.0:8000 ports: - 8011:8000 restart: always celery-worker: build: context: ./backend dockerfile: Dockerfile volumes: - /app/backend:/app environment: - CELERY_BROKER_URL=redis://redis:6379/0 command: celery -A server worker -l info --pool=solo --concurrency=1 depends_on: - redis - backend restart: always celery-beat: build: context: ./backend dockerfile: Dockerfile volumes: - /app/backend:/app environment: - CELERY_BROKER_URL=redis://redis:6379/0 command: celery -A server beat -l info --scheduler django_celery_beat.schedulers:DatabaseScheduler depends_on: - redis - backend restart: always redis: image: redis:latest ports: - 6379:6379 restart: always mysql: image: mysql:latest environment: - MYSQL_ROOT_PASSWORD=sacfxSql258147@ ports: - 8016:3306 volumes: - ./mysql:/var/lib/mysql restart: always frontend:dockerfile文件: FROM node:16.18.1 WORKDIR /app/frontend COPY package*.json ./ RUN npm install COPY . . RUN npm run build:prod FROM nginx:latest COPY --from=0 /app/frontend/dist/ /usr/share/nginx/html EXPOSE 80 CMD ["nginx", "-g", "daemon off;"]
07-14
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值