Spark Dataframe Scala选择部分列

本文介绍了如何使用Scala DataFrame进行列筛选,通过两种方法实现:一是利用DataFrame的列名过滤,二是运用正则表达式匹配。展示了如何根据不包含特定字符的列名选择数据。
一,创建Dataframe
scala> val df = sc.parallelize(Seq(
     |      |   (0,"cat26",30.9),
     |      |   (1,"cat67",28.5),
     |      |   (2,"cat56",39.6),
     |      |   (3,"cat8",35.6))).toDF("Hour", "Category", "Value")
df: org.apache.spark.sql.DataFrame = [Hour: int, Category: string ... 1 more field]

scala> df.show()
+----+--------+-----+
|Hour|Category|Value|
+----+--------+-----+
|   0|   cat26| 30.9|
|   1|   cat67| 28.5|
|   2|   cat56| 39.6|
|   3|    cat8| 35.6|
+----+--------+-----+

二,方法1:(!号是取反)
scala> var df1 =  df.select(df.columns.filter(x => !x.contains("Val")).map(df(_)) : _*)
df1: org.apache.spark.sql.DataFrame = [Hour: int, Category: string]
scala> df1.show()
+----+--------+
|Hour|Category|
+----+--------+
|   0|   cat26|
|   1|   cat67|
|   2|   cat56|
|   3|    cat8|
+----+--------+

三,方法2:
scala> val regex = """^((?!Va).)*$""".r
regex: scala.util.matching.Regex = ^((?!Va).)*$

scala> val selection = df.columns.filter(s => regex.findFirstIn(s).isDefined)
selection: Array[String] = Array(Hour, Category)

scala> var newdf = df.select(selection.head, selection.tail : _*)
newdf: org.apache.spark.sql.DataFrame = [Hour: int, Category: string]

scala> newdf.show()
+----+--------+
|Hour|Category|
+----+--------+
|   0|   cat26|
|   1|   cat67|
|   2|   cat56|
|   3|    cat8|
+----+--------+

正则表达式这块没怎么研究,可参考:
https://www.runoob.com/scala/scala-regular-expressions.html
https://stackoverflow.com/questions/59065137/select-columns-in-spark-dataframe-based-on-column-name-pattern
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值