package org.example
import org.apache.flink.streaming.api.scala._
import scala.collection.mutable.ArrayBuffer
object MyRandom {
def main(args: Array[String]): Unit = {
//创建执行环境
val env = StreamExecutionEnvironment.getExecutionEnvironment
//设置线程数为1
env.setParallelism(1)
//设置数据源为1到100的集合
val arr = ArrayBuffer[Int]()
for(i <- 1 to 100){
arr.append(i)
}
val ds = env.fromCollection(arr)
//把数据源按指定规则split为奇数流和偶数流
val res
Flink的分流操作,分别用split-select和process-getSideOutput实现
最新推荐文章于 2024-11-01 18:05:04 发布