【云星数据---Apache Flink实战系列(精品版)】:Apache Flink实战基础009--flink分布式部署004

本文介绍如何使用Apache Flink进行批处理测试,包括创建文件夹上传readme文件及运行wordcount程序的具体步骤。通过设置8个并发任务,计算HDFS上的README.txt文件中单词的个数,并展示如何查看输出结果。

四、flink批处理测试

1.创建文件夹并上传flink的readme文件

略,见上章节!

2.运行wordcount程序

2.1检查安装包中是否存在WordCount.jar

cd ${FLINK_HOME}/examples/batch
tree -L 1 .

执行效果:
这里写图片描述

2.2运行wordcount程序

计算hdfs://qingcheng11:9000/input/flink/README.txt中单词的个数

执行命令:

${FLINK_HOME}/bin/flink run -p 8 ${FLINK_HOME}/examples/batch/WordCount.jar \
--input  hdfs://qingcheng11:9000/input/flink/README.txt \
--output hdfs://qingcheng11:9000/output/flink/readme_result

其中:-p 8:是设置8个任务并发执行,也就是Job parallelism=8,每个任务输出一个结果到hdfs上hdfs上将生产8个结果文件。

fink web ui中的效果:

这里写图片描述

hadoop hdfs web ui中的效果:

这里写图片描述

分别查看结果文件中的内容:

 hadoop fs -text /output/flink/readme_result/1
 hadoop fs -text /output/flink/readme_result/2
 hadoop fs -text /output/flink/readme_result/3
 hadoop fs -text /output/flink/readme_result/4
 hadoop fs -text /output/flink/readme_result/5
 hadoop fs -text /output/flink/readme_result/6
 hadoop fs -text /output/flink/readme_result/7
 hadoop fs -text /output/flink/readme_result/8

这里写图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值