
Spark
spark
H_w
这个作者很懒,什么都没留下…
展开
-
Spark2.2 (八) SparkSql读写MySQL
Spark读写MySQL1.配置信息2.需求示例3.完整代码实现4.输出结果5.总结1.配置信息下面展示一些 内联代码片。#mysql数据库配置mysql.driver=com.mysql.jdbc.Drivermysql.url=jdbc:mysql://localhost:3306/test?serverTimezone=UTCmysql.user=******mysql.password=******2.需求示例1.mysql中score表示例数据mysql> select原创 2020-10-16 18:21:58 · 523 阅读 · 0 评论 -
Spark2.2 (七) Spark Streaming与外部存储介质
一、将DStream输出到文件中Spark Streaming提供了多个上层接口,用于将DStream书出到外部文件,包括saveAsObjectFiles、saveAsTextFiles、saveAsHadoopFiles,可以分别将DStram输出到序列化文件,文本文件及Hadoop文件中。下面简单的词频统计将DStream输出到文本文件中关键步骤1、构建一个流式上线文,配置我们Spa...原创 2019-10-17 14:35:56 · 473 阅读 · 0 评论 -
Spark2.2 (六) Spark Streaming分析Kakfa数据
Spark Streaming分析Kakfa数据环境spark-2.2.0kafka-2.11-2.30zookeeper-3.5.5kafka Producer开发package docimport java.util.Propertiesimport org.apache.kafka.clients.producer.{KafkaProducer, ProducerReco...原创 2019-10-16 17:42:58 · 277 阅读 · 0 评论 -
Spark2.2(一)RDD
Spark2.2文档(一)RDDpackage doc.rddimport org.apache.spark.{SparkConf, SparkContext}/** * @Program: doc.rdd * @Author: huangwei * @Date: 2019/9/5 18:03 * @description: Spark最重要的一个抽象概念就是弹性分布式数...原创 2019-09-18 18:04:23 · 192 阅读 · 0 评论 -
Spark2.2(二)RDD算子
Spark2.2文档(二)RDD算子package doc.rddimport org.apache.spark.util.DoubleAccumulatorimport org.apache.spark.{SparkConf, SparkContext}/** * @Program: doc.rdd * @Author: huangwei * @Date: 2019/9/...原创 2019-09-18 18:16:26 · 160 阅读 · 0 评论 -
Spark2.2(三)SparkSql数据源
SparkSql数据源package doc.dfimport java.util.Propertiesimport org.apache.hadoop.fs.{FileSystem, Path}import org.apache.hadoop.mapred.{FileOutputFormat, JobConf}import org.apache.hadoop.mapred.lib....原创 2019-09-18 18:18:09 · 334 阅读 · 0 评论 -
Spark2.2(四)用户自定义聚合函数
用户自定义聚合函数package doc.dfimport org.apache.spark.sql.{Row, SparkSession}import org.apache.spark.sql.expressions.{MutableAggregationBuffer, UserDefinedAggregateFunction}import org.apache.spark.sql.t...原创 2019-09-18 18:21:18 · 434 阅读 · 0 评论 -
Spark2.2(五)SparkSQL读写Hive
IDEA中使用SparkSQL读写Hive添加依赖libraryDependencies ++= Seq("org.apache.spark" %% "spark-core" % "2.2.0", "org.apache.spark" %% "spark-sql" % "2.2.0", ...原创 2019-09-20 17:54:04 · 1478 阅读 · 0 评论