idea+maven创建并测试flink处理kafka流的jar包过程

本文介绍了如何在IDEA中利用Maven创建一个Flink处理Kafka流的Java项目。首先,通过设置GroupID和ArtifactID创建基于flink-quickstart-java的maven项目,接着添加Kafka相关依赖。然后在StreamingJob.java中编写处理代码,并使用maven package打包成JAR。最后,将JAR上传到Flink服务器运行,并通过kafka-console-producer发送消息进行测试。

1、idea创建maven新项目,选择add achertype。

GroupID: org.apache.flink

ArtifactID: flink-quickstart-java

version: 1.12.2(安装了要运行的flink的版本)

点击ok了以后,在maven的achertype的列表里就可以选这个了,下一步,GroupID是com.app.***这样的项目名,ArtifactID是项目内标识名(idea文件夹名称)。后面maven的文件路径要注意是对的。

2、pom文件添加kafka依赖包

上网查了半天各种版本,最后定的kafka用0.11版本的,然后flink-connector-kafka的版本各种搜没看到用什么版本,最后发现用pom文件里默认的如下形式就可以,相互是兼容的。

<dependency>
   <groupId>org.apache.flink</groupId>
   <artifactId>flink-connector-kafka_${scala.binary.version}</artifactId>
   <version>${flink.version}</version>
</dependency>

3、在StreamingJob.java代码中添加如下:

        // set up the streaming execution environment
		final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
		env.enableCheckpointing(5000); // 要设置启动检查点

		// execute program
		//env.execute("Flink Streaming Java API Skeleton");
		System
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值