airflow 安装简单版

本文介绍了如何通过pip命令安装Apache Airflow及其各种可选组件,并详细解释了配置过程,包括设置环境变量、连接MySQL数据库及初始化数据库等关键步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

首先安装命令为:
pip install airflow


也可以:
pip install airflow[参数]


参数如下:

subpackage install command enables
all pip install airflow[all] All Airflow features known to man
all_dbs pip install airflow[all_dbs] All databases integrations
async pip install airflow[async] Async worker classes for gunicorn
devel pip install airflow[devel] Minimum dev tools requirements
devel_hadoop pip install airflow[devel_hadoop] Airflow + dependencies on the Hadoop stack
celery pip install airflow[celery] CeleryExecutor
crypto pip install airflow[crypto] Encrypt connection passwords in metadata db
druid pip install airflow[druid] Druid.io related operators & hooks
gcp_api pip install airflow[gcp_api] Google Cloud Platform hooks and operators (using google-api-python-client)
jdbc pip install airflow[jdbc] JDBC hooks and operators
hdfs pip install airflow[hdfs] HDFS hooks and operators
hive pip install airflow[hive] All Hive related operators
kerberos pip install airflow[kerberos] kerberos integration for kerberized hadoop
ldap pip install airflow[ldap] ldap authentication for users
mssql pip install airflow[mssql] Microsoft SQL operators and hook, support as an Airflow backend
mysql pip install airflow[mysql] MySQL operators and hook, support as an Airflow backend
password pip install airflow[password] Password Authentication for users
postgres pip install airflow[postgres] Postgres operators and hook, support as an Airflow backend
qds pip install airflow[qds] Enable QDS (qubole data services) support
rabbitmq pip install airflow[rabbitmq] Rabbitmq support as a Celery backend
s3 pip install airflow[s3] S3KeySensorS3PrefixSensor
samba pip install airflow[samba] Hive2SambaOperator
slack pip install airflow[slack] SlackAPIPostOperator
vertica pip install airflow[vertica] Vertica hook support as an Airflow backend
cloudant pip install airflow[cloudant] Cloudant hook

可以直接使用:

 pip install airflow[all]

这样就可以安装所有依赖的东西,


配置环境变量:
export AIRFLOW_HOME=~/airflow


配置mysql数据库存储airflow信息:

sql_alchemy_conn = mysql://user:password@ip:port/airflow


初始化数据库:
airflow initdb


启动Web Server,指定端口:
airflow webserver –p 18080


安装成功界面:




后台显示:





OK,在默认的配置下可以玩了,如果需要将airflow的数据保存到数据库的话,就可以配置一下保存到数据库。

要在 Docker 中安装 Airflow,可以按照以下步骤进行操作: 1. 首先,您需要在系统上安装 Docker。您可以在 https://docs.docker.com/get-docker/ 上找到适合您操作系统的 Docker 安装指南。 2. 接下来,创建一个 Dockerfile。在这个文件中,您需要指定所需的操作系统、Python 本和其他依赖项,以及要安装的 Airflow 本和其他 Python 包。以下是一个简单的 Dockerfile 示例: ``` FROM python:3.8-slim-buster RUN apt-get update && apt-get install -y \ libpq-dev \ && rm -rf /var/lib/apt/lists/* RUN pip install --upgrade pip RUN pip install apache-airflow==2.1.4 \ --constraint "https://raw.githubusercontent.com/apache/airflow/constraints-2.1.4/constraints-3.8.txt" WORKDIR /usr/local/airflow RUN useradd -ms /bin/bash -d ${AIRFLOW_HOME} airflow USER airflow CMD ["bash"] ``` 3. 在 Dockerfile 所在的目录中,运行以下命令来构建 Docker 镜像: ``` docker build -t my-airflow . ``` 4. 等待镜像构建完成后,可以使用以下命令来运行 Airflow 容器: ``` docker run -it -p 8080:8080 my-airflow ``` 其中,-p 参数指定了要将容器的 8080 端口映射到主机的 8080 端口,以便您可以通过浏览器访问 Airflow Web UI。 5. 如果需要在容器中运行 Airflow 作业,您可以使用以下命令来启动 Airflow 调度程序: ``` docker exec -it <container-id> airflow scheduler ``` 其中,<container-id> 是容器的 ID,可以通过运行以下命令来查找: ``` docker ps ``` 这样,您就可以在 Docker 中安装和运行 Airflow 了。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值