
部分安装方法参考: Linux 虚拟机:大数据集群基础环境搭建(Hadoop、Spark、Flink、Hive、Zookeeper、Kafka、Nginx)
一、Python 安装
当前安装版本为 Python-3.9,使用源码包安装
- 下载源码包或者 wget 下载
wget https://www.python.org/ftp/python/3.9.6/Python-3.9.6.tgz
- 解压到指定目录
tar -zxvf Python-3.9.6.tgz
- 依赖环境安装
sudo yum -y install vim unzip net-tools && sudo yum -y install wget && sudo yum -y install bzip2 && sudo yum -y install zlib-devel bzip2-devel openssl-devel ncurses-devel sqlite-devel readline-devel tk-devel gdbm-devel db4-devel libpcap-devel xz-devel && sudo yum -y install libglvnd-glx && sudo yum -y install gcc gcc-c++
- 预配置
cd Python-3.9.6
./configure --prefix=/xxx/program/python3
- 编译安装

文章详细介绍了如何在Linux上安装Python3.9,包括依赖环境的安装和配置。接着,它演示了如何升级pip和setuptools,然后安装ApacheAirflow,并连接到MySQL数据库。在配置Airflow时,提到了需要修改airflow.cfg文件以适应MySQL,并解决了因sqlite版本过低和timestamp默认值问题引发的错误。最后,文章列举了一些安装过程中遇到的坑,如命令路径、setuptools版本和数据库兼容性问题。
最低0.47元/天 解锁文章
1851

被折叠的 条评论
为什么被折叠?



