Spark的Dataset操作(一)-列的选择select

环境说明:

用的版本是Spark 2.1,Dataset操作很丰富,join的支持也蛮好的,比原来用的spark 1.4好用多了。

嗯,Dataset操作,我觉得最重要的是把Column类的用法弄清楚。毕竟,后面的Dataset操作都是在操作列。最好的资料自然是官方文档,Spark的API文档还是挺详细的,而且还细分了Java/Scala/Python。

来个例子边看边说:

scala> val df = spark.createDataset(Seq(
            ("aaa", 1, 2),    ("bbb", 3, 4),    ("ccc", 3, 5),    ("bbb", 4, 6))
        ).toDF("key1","key2","key3")
df: org.apache.spark.sql.DataFrame = [key1: string, key2: int ... 1 more field]
scala> df.printSchema
root
 |-- key1: string (nullable = true)
 |-- key2: integer (nullable = false)
 |-- key3: integer (nullable = false)
scala> df.collect
res34: Array[org.apache.spark.sql.Row] = Array([aaa,1,2], [bbb,3,4], [ccc,3,5], [bbb,4,6])

上面的代码创建了一个

### 关于 Apache Spark Dataset 的文档与使用案例 #### 定义与特性 DatasetSpark 中用于处理结构化数据的种接口,它结合了 RDD 和 DataFrame 的优点,在提供强类型支持的同时也保持了高效的执行性能。相比于传统的 RDD 接口,Dataset 提供更优化的操作方式以及更好的编译期错误检测能力[^1]。 #### 创建 Dataset 实例的方法 创建 Dataset 主要有两种途径: - **从现有集合转换** 通过 `toDS()` 方法可以直接将 Scala 集合对象转化为对应的 Dataset 对象。 ```scala val dsFromCollection = Seq(1, 2, 3).toDS() ``` - **基于 SQL 查询构建** 利用 SparkSession 来注册表并执行查询语句返回结果集作为 Dataset 类型的数据源。 ```scala spark.createDataset(spark.range(1000).selectExpr("id * 2 as double_id").as[Int]) ``` #### 基本操作实例展示 下面是些常见的 Dataset 操作例子: - **过滤(filter/where)**:筛选符合条件的记录 ```scala ds.filter(_ % 2 == 0) // 过滤偶数项 ``` - **映射(map/transformation)**:对每条记录应用函数变换 ```scala ds.map(x => x + 1) // 将所有数值加 ``` - **聚合(groupByKey/reduceGroups)**:按键分组并对各组内的值做累积运算 ```scala case class Record(key: Int, value: String) // 组合成元组后再进行reduce操作 ds.groupByKey(_.key).reduceGroups((a,b)=>Record(a.key,a.value+b.value)) ``` 这些功能使得开发者可以更加方便地编写高效且易于维护的大数据分析程序。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值