
spark-sql
文章平均质量分 76
自由幻想的人儿
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
spark-SQL的数据源的读写--jdbc--parquet--json--CSV
关于spark-sql的读写文件的方法,数据源分为这几类:1.jdbc连接mysql的文件的读写//从mysql中读取数据,需要指定表,驱动类。 val url = "jdbc:mysql://localhost:3306/bbs?characterEncoding=utf-8" val tname = "t_acc_Ip" val conn = new Propertie...原创 2018-01-31 22:03:56 · 737 阅读 · 0 评论 -
spark-sql使用UDF函数实现ip映射省份,数据写出到mysql参数设置。
spark-SQL使用广播变量以及应用数据库的UDF自定义函数的查询会比两张表的连接更加的优化的程序的执行。 两表连接是比较费效率的。 spar-sql 2.x的数据读取,处理,添加schema信息,常见表,SQL查询。 将sql结果输出到mysql的api参数设置。 还可以创建时设置参数: val conf = new SparkConf() .set("spark.原创 2018-01-31 20:25:07 · 1690 阅读 · 0 评论 -
spark-sql 1.x版本与2.x版本的wordcount实现
spark-sql的操作对象由dataframe变为了datasetspark-sql是spark的一个组件,可以在spark程序中进行SQL查询。是一个分布式的sql查询引擎。spark-sql在1.3的版本中开始使用dataframe对象,来对数据进行操作。dataframe=rdd+schema语法风格分为两种:SQL语法风格:dataframe对象注册虚拟表后查询,DSL语法风格dataf...原创 2018-01-29 22:13:53 · 564 阅读 · 0 评论