大数据系列篇-SPARK-SQL用户定义函数
package com.test
import org.apache.spark.SparkConf
import org.apache.spark.sql.SparkSession
//用户定义函数
object SparkSqlUdf {
def main(args: Array[String]): Unit = {
val sparkConf = new SparkConf().setAppName("练习SparkSqlUdf").setMaster("local[*]")
val spark = SparkSession.builder().config(sparkConf).getOrCreate()
val df = spark.read.json("data/user.json")
df.createOrReplaceTempView("user")
spark.udf.register("prefixName",(name:String)=>{
"用户名:" + name
})
spark.sql("SELECT age,prefixName(userName) as prefixUserName FROM user").show()
spark.close()
}
}

该博客展示了如何在Scala中使用Spark SQL注册并调用用户定义函数(UDF)。通过创建一个简单的`prefixName`函数,将名字前缀以'用户名:',然后在DataFrame上执行SQL查询展示结果。
488

被折叠的 条评论
为什么被折叠?



