spark
文章平均质量分 62
奋斗的小乌龟
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
spark入门一(spark集群的安装)
钱钱钱钱钱钱钱钱钱钱钱 暂时留住坑位原创 2018-10-03 10:44:05 · 201 阅读 · 0 评论 -
spark入门二(算子介绍核wordcount入门)
启动spark集群( 集群配置参考上一篇博客)[root@master ~]# cd /usr/local/apps/spark-2.3.2-bin-hadoop2.7/[root@master spark-2.3.2-bin-hadoop2.7]# ./sbin/start-all.sh启动日志如下:starting org.apache.spark.deploy.master.Mas...原创 2018-10-03 10:52:35 · 301 阅读 · 0 评论 -
spark入门三(RDD基本运算)
1. RDD基本操作 val rdd1 = sc.parallelize(List(1,2,3,4,4)) 输出结果:rdd1: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[0] at parallelize at <console>:24 //这里org.apache.spark.rdd.RDD[Int],这里R...原创 2018-10-14 18:11:23 · 3101 阅读 · 0 评论 -
spark入门四(RDD高级算子一)
1. mapPartitionsWithIndex创建RDD,指定分区数为2scala> val rdd1 = sc.parallelize(List(1,2,3,4,5,6,7),2)查看分区scala> rdd1.partitions– 内容如下:res0: Array[org.apache.spark.Partition] = Array(org.apache....原创 2018-10-18 11:27:41 · 373 阅读 · 0 评论 -
spark入门五(RDD高级算子二)
1. 复习List的操作list操作:val ls1 = List(1)val ls2 = List(2)// 追加一个元素ls1 :+ 2 这个结果为:res15: List[Any] = List(1, 2)// 追加一个集合ls1 ++ ls2 这个结果为:res16: List[Int] = List(1, 2)// 追加一个集合ls1 ::: ls2 这个结果为:res...原创 2018-10-18 17:45:36 · 226 阅读 · 0 评论
分享