import org.spache.spark.sql.functions._
import spark.implicits._
val df = sc.parallelize(Array(1.2,1.233453,2.45323445,3.22))
val df1 = df.toDF()
df1.show()

val df2 = df1.select(bround($"value",scale=4).alias("RankPoint"))

val df3 = df1.selectExpr("cast(value as decimal(18,4)) as RankPoint")

本文演示了如何使用Spark SQL处理浮点数精度问题,通过将数据转换为decimal类型并设置精度,确保数据处理的准确性。文章提供了具体代码示例,包括创建DataFrame、调整字段精度以及展示结果。
5581

被折叠的 条评论
为什么被折叠?



