package org.example
import org.apache.flink.streaming.api.scala._
import scala.collection.mutable.ArrayBuffer
object MyRandom {
def main(args: Array[String]): Unit = {
//创建执行环境
val env = StreamExecutionEnvironment.getExecutionEnvironment
//设置线程数为1
env.setParallelism(1)
//设置数据源为1到100的集合
val arr = ArrayBuffer[Int]()
for(i <- 1 to 100){
arr.append(i)
}
val ds = env.fromCollection(arr)
//把数据源按指定规则split为奇数流和偶数流
val res
Flink的分流操作,分别用split-select和process-getSideOutput实现
最新推荐文章于 2023-04-19 09:00:00 发布

最低0.47元/天 解锁文章
3200

被折叠的 条评论
为什么被折叠?



