Ubuntu上搭建Flink Standalone集群

Ubuntu上搭建Flink Standalone集群

本文部分内容转自如下链接

环境说明

ubuntu 22.06

先执行apt-get update更新环境

第1步 安装JDK

通过apt自动拉取 openjdk8

apt-get install openjdk-8-jdk

执行java -version,如果能显示Java版本号,表示安装并配置成功。

第2步 安装Scala

通过apt自动拉取 Scala最新版

apt-get install scala

第3步 获取flink安装包

先到flink官方下载页面flink下载,找到要下载的版本,使用如下命令获取flink安装包

wget https://dlcdn.apache.org/flink/flink-1.20.0/flink-1.20.0-bin-scala_2.12.tgz

等待下载完成,即可在当前文件夹下看到该安装包。
使用如下命令解压该安装包:

tar -xvf flink-1.20.0-bin-scala_2.12.tgz

会在当前目标下生成新文件夹“flink-1.20.0”

第4步 启动flink stand-alone集群

使用bin/start-cluster.sh命令可以启动集群。

bin/start-cluster.sh

启动成功后,可通过jps命令,查看到启动的进程,包括一个taskmanager和一个ClusterEntryPoint进程
在这里插入图片描述
使用bin/stop-cluster.sh可以停止集群运行。

第5步 打开集群监控页面

flink自带了一个集群状态监控系统,通过 http://[ip]:8081/访问,其中ip是集群部署的IP地址。将显示如下的信息:
在这里插入图片描述
如果是从外部(其他IP地址)访问这个系统,需要修改conf/config.yaml文件中的rest.bind-address属性为“0.0.0.0”.
在这里插入图片描述
重启集群服务,即可从外部访问。

第6步 测试运行wordcount示例

flink自带了一个WordCount.jar,可以统计单词个数。
可以通过如下方式运行。
打开一个新的命令行窗口,运行如下命令以模拟发送的单词实时数据:

nc -lk 9999

运行后该窗口会处于等待输入状态,可以输入不同的单词。
通过以下命令运行flink的WordCount.jar示例

bin/flink run examples/streaming/SocketWindowWordCount.jar --port 9999

上面的端口要与上一行命令中的端口保持一致
显示启动成功后,可以看到任务id

Job has been submitted with JobID 989aa05352edaa169331b03722a8e4b3

再打开监控页面,可以看到
在这里插入图片描述
任务完成

### 回答1: Flink standalone集群搭建步骤如下: 1. 下载Flink安装包并解压缩到指定目录。 2. 配置Flink集群的masters和workers节点,可以在conf目录下的masters和workers文件中进行配置。 3. 启动Flink集群的masters节点,可以使用bin/start-cluster.sh命令启动。 4. 启动Flink集群的workers节点,可以使用bin/taskmanager.sh start命令启动。 5. 验证Flink集群是否正常运行,可以使用bin/flink list命令查看当前运行的Flink作业。 6. 在Flink集群中提交作业,可以使用bin/flink run命令提交作业。 7. 监控Flink集群的运行状态,可以使用Flink的Web UI或者JMX监控工具进行监控。 以上就是Flink standalone集群搭建的基本步骤,希望对您有所帮助。 ### 回答2: Apache Flink是一个处理流和批量数据的通用分布式计算引擎,可在大规模数据集上快速实现低延迟和高吞吐量。Flink提供了一个Standalone集群模式,使开发人员可以在自己的本地机器上测试和验证他们的应用程序,而无需构建一个完整的分布式环境。在本文中,我们将介绍如何搭建一个Flink Standalone集群。 1. 确保你的环境满足Flink的要求,比如安装Java环境等。 2. 下载Flink二进制文件。从Flink官网下载最新的tar文件,然后解压到一个目录下。 3. 配置Flink。打开conf/flink-conf.yaml文件,配置Flink的参数,比如jobmanager.rpc.address(JobManager监听的主机地址),taskmanager.numberOfTaskSlots(每个TaskManager能够执行的任务数)等。 4. 启动JobManager。在Flink的bin目录下执行以下命令: ./start-cluster.sh 这将启动JobManager和TaskManager进程。 5. 访问Flink Web Dashboard。在浏览器中输入http://localhost:8081,可以访问Flink Web Dashboard。这里可以查看集群的状态、运行中的任务、日志等。 6. 启动应用程序。使用Flink提供的运行脚本(bin/flink run)来提交应用程序。 7. 观察应用程序的运行状态。可以在Flink Web Dashboard中查看应用程序的运行状态和日志,还可以监控各种指标,如吞吐量、延迟、资源使用情况等。 8. 停止集群。在bin目录下执行以下命令: ./stop-cluster.sh 这将停止JobManager和TaskManager进程。 总之,通过Flink Standalone集群,您可以在本地机器上测试和验证您的应用程序,并且几乎没有任何成本。值得注意的是,Standalone集群并不适合生产环境,但当您需要在本地机器上调试应用程序时,它是一个很好的选择。 ### 回答3: Apache Flink是一个开源的分布式流处理系统。它以高效、可伸缩和容错为设计目标,因此广泛应用于大数据领域。Flink可以运行在各种集群上,包括Hadoop YARN和Apache Mesos等。在本文中,我们将讨论如何在Flink standalone集群搭建分布式流处理系统。 Flink standalone集群搭建的准备工作: 在搭建Flink standalone集群之前,需要确保已经完成以下准备工作: 1. 安装Java 8或更高版本。 2. 下载Flink发行版,并解压缩至安装目录。 Flink standalone集群搭建的步骤: 1. 在主节点上启动Flink集群管理器。在Flink所在目录下,输入以下命令: ./bin/start-cluster.sh 2. 查看集群状态。在Flink所在目录下,输入以下命令: ./bin/flink list 如果输出结果为空,则说明集群状态正常。 3. 在从节点上启动TaskManager。在从节点所在机器上,输入以下命令: ./bin/taskmanager.sh start 4. 查看TaskManager状态。在从节点所在机器上,输入以下命令: ./bin/taskmanager.sh status 如果输出结果为“正常运行”,则说明TaskManager已经成功启动。 5. 提交Flink作业。在Flink所在目录下,输入以下命令: ./bin/flink run ./examples/streaming/SocketWindowWordCount.jar --port 9000 其中,SocketWindowWordCount.jar是一个简单的Flink作业,用于计算流式数据的词频统计。 6. 监控作业运行情况。在浏览器中输入以下地址: http://localhost:8081 可以查看作业的运行状态、性能指标等信息。 总结: 通过以上步骤,我们已经成功搭建Flink standalone集群,并提交了一个简单的流处理作业。需要注意的是,本文仅提供了基础的搭建步骤,实际生产环境中还需要进行更加细致的配置和管理。同时,Flink具有丰富的API和生态系统,可以灵活应对不同的数据处理场景。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值