
大数据 之 Spark
「已注销」
这个作者很懒,什么都没留下…
展开
-
关于spark中 task数据本地化的五种方式
spark中,数据的本地化方式分为五种 PROCESS_LOCAL : 进程本地化 , task计算的数据在当前Executor中 不同task计算的时候可以共同用这一个数据集,效率高,节省资源 NODE_LOCAL : 节点本地化 , task计算的数据在当前节点上,task计算的时候不需要跨节点拉取数据,速度也是比较快的 NO_PREF : 没有本地化 ,这个方式的意思就是数据不是本地化的数...原创 2019-03-27 13:25:36 · 648 阅读 · 0 评论 -
【转】Spark Streaming输出至Kafka
由Spark Streaming 向Kafka写数据,没有现成的官方接口,需要利用Kafka提供的底层接口。 第一种写法,如下,会报错: nameAddrPhoneStream.foreachRDD(rdd => { //在Driver中执行 //初始化生产者配置 val props = new Properties() props.setProperty("...转载 2019-09-07 21:24:38 · 347 阅读 · 0 评论