spark编程02——spark中RDD的创建

本文介绍了如何在Apache Spark中通过内存创建RDD,包括`parallelize`和`makeRDD`方法,以及如何从外部文件(本地和HDFS)加载数据。还涵盖了使用`wholeTextFiles`读取文件内容的实例,并总结了RDD的高级创建方式。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

创建RDD的方式可分为四种:

1.从集合(内存)中创建

2.从外部存储(文件)中创建:本地/HDFS

3.从其它RDD创建,一个RDD运算完成后产生新的RDD

4.直接创建RDD(new)

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

object spark02_rdd_create {
  def main(args: Array[String]): Unit = {
    val sparkConf=new SparkConf().setMaster("local").setAppName("MakeRdd")
    val sc=new SparkContext(sparkConf)
    
    //TODO 从内存中创建RDD
    val seq=Seq[Int](1,2,3,4)
    //parallelize并行
    val RDD1: RDD[Int] = sc.parallelize(seq)
    //makeRDD就是实现的RDD中的parallelize方法
    val RDD2: RDD[Int] = sc.makeRDD(seq)
    RDD2.collect().foreach(println)

    //TODO 从文件中创建RDD
    val RDD3=sc.textFile("datas/1.txt")
    RDD3.collect().foreach(println)
    //textFile是字符串的形式,行来读取的
    //wholeTextFiles是以文件为单位读取的,元组的形式(文件名,内容)
    val RDD4=sc.wholeTextFiles("datas")
    RDD4.collect().foreach(println)
    sc.stop()

  }
}

wholeTextFiles的运行结果:

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值