Flink随笔(一) 野生使用Hadoop yarn,hdfs

本文记录了在Hadoop小集群上使用Flink进行实战的过程。首先说明了由于SRE权限限制,选择了一台能连接Master的机器进行操作。接着详细介绍了操作步骤,包括下载Hadoop和Flink,解压并配置环境变量,确保Flink能使用Hadoop。最终成功运行了Flink作业,通过`yarn-session.sh`命令启动了YARN会话。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

说明


说明

组内搭建一个小集群, 10+个节点,因为SRE 权限没给到,想在上边跑一些自己的任务,找了一台能连接到Master 的机器 。 

其实有了 Hadoop Yarn 和 HDFS , 客户端只要能够提交就可以,但是需要用到hadoop 的一些配置等,所以需要安装

 

操作

下载Hadoop (已经3.X 了, 当年还是0.20.2 的版本看源代码)

https://mirrors.bfsu.edu.cn/apache/hadoop/common/hadoop-3.1.4/hadoop-3.1.4.tar.gz

下载flink  (当前最新 1.12.1 )

wget http://mirror.bit.edu.cn/apache/flink/flink-1.12.1/flink-1.12.1-bin-scala_2.12.tgz

解压到目标目录(为了方便就基本当前目录  tar -zxvf  xxx.tar.gz)

配置环境变量,让Flink能够检测到并且使用Hadoop 程序

export JAVA_HOME=/xxxx/jvm/java-8-openjdk-amd64/jre
export HADOOP_HOME=/xxxx/hadoop-3.1.4
export PATH=$HADOOP_HOME/bin:$PATH
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_CLAS
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值