
SparkSql
Han_Lin_
这个作者很懒,什么都没留下…
展开
-
Spark无法使用反射的方式创建DataSet的解决方式
无法使用反射的方式创建 DataSet 主要是 Spark 中的 implicits 隐式转换包没有导入。当你创建的是 HiveContext 的时候就需要导入 HiveContext 的比如:val sc = new SparkContext(conf)val hiveContext = new HiveContext(sc)那么你就需要导入:import hiveCo...原创 2019-02-17 10:01:10 · 357 阅读 · 0 评论 -
DataFrame返回一个空白表如何进行判断没有任何数据
// 直接判断DataFrame转换成的RDDval csr_bool_customerid = customerid.rdd.isEmpty()原创 2019-02-28 22:21:30 · 2078 阅读 · 0 评论 -
DataFrame转自定义JavaBean
本人在项目开发的阶段遇到了一个业务场景:需要将 DataFrame 的数据转成一个自定义的 JavaBean 对象,然后传给 Java 应用层。执行的主函数代码:package com.hanlian.spark.sqlimport org.apache.spark.sql.SparkSessionobject DataFrameToJavaBean { def main(...原创 2019-03-15 22:00:32 · 815 阅读 · 0 评论 -
Spark2.3.2 SparkSession 将 String 类型的 Json 转换为 DataFrame
import org.apache.spark.{SparkConf, SparkContext}import org.apache.spark.sql.{SQLContext, SparkSession}object DataFrameCreate { def main(args: Array[String]) { val jsonString = "{\"id\":1,...原创 2019-04-06 10:05:07 · 1110 阅读 · 0 评论