
SparkSQL
木凡空
就让光芒折射泪湿的瞳孔
映出心中最想拥有的彩虹
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
SparkSQL之DataFrame使用详解
一、应用1.show def show1(ss:SparkSession):Unit={ val df=ss.read.json("E:\\data\\spark\\dataframe\\test\\read\\people.json") df.show() }2.select def select1(ss:SparkSession):Unit={ val df=ss.read.json("E:\\data\\spark\\dataframe\\test\\read原创 2020-07-05 18:32:59 · 746 阅读 · 0 评论 -
SparkSQL简单示例
Scala版本:Scala version 2.10.5Spark版本:Spark version2.1.0import org.apache.spark.sql.SQLContextimport org.apache.spark.{SparkConf, SparkContext}object DataFrameTest { def main(args:Array[Stri...原创 2019-11-19 17:52:33 · 251 阅读 · 0 评论