
spark
七年·
这个作者很懒,什么都没留下…
展开
-
WaterDrop的使用
支持多种数据源与输出 数据输入形式有两种:一种是批,一种是流(分别对应sparksql中的一次性读取,与structruedstreaming的流式处理) 批处理有(start-waterdrop.sh):ElasticSearch File Hdfs Hive Hbase JDBC Kudu MongDB Mysql等(Hbase为商业版,普通版需要实现可以使用Hive映射HBase表的方式) 流式处理有(start-waterdrop-structured-streaming.s...原创 2020-09-18 18:24:39 · 10749 阅读 · 0 评论 -
StructuredStreaming读取kafka结果输出到mysql
代码: import java.sql.{Connection, DriverManager, PreparedStatement} import org.apache.spark.SparkConf import org.apache.spark.sql._ import org.apache.spark.sql.streaming.{OutputMode, StreamingQuery} object KafkaWC { def main(args: Array[String]): Unit =原创 2020-08-23 21:42:17 · 853 阅读 · 0 评论