spark
daimin1
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
spark Streaming 实时流
producer类(java) package cn.kgc.stock; import org.apache.kafka.clients.producer.KafkaProducer; import org.apache.kafka.clients.producer.ProducerRecord; import org.apache.kafka.clients.producer.RecordMetadata; import java.util.Properties; import java.util.原创 2021-08-01 01:10:02 · 130 阅读 · 0 评论 -
spark生产者和消费者(附完整代码)
创建工程 scala maven 添加依赖 //版本号 <scala.version>2.12.10</scala.version> <spark.version>3.0.1</spark.version> <spark.scala.version>2.12</spark.scala.version> <!-- scala--> <dependency> <gr原创 2021-08-01 01:05:15 · 508 阅读 · 0 评论 -
spark 操作 hive
依赖就不贴了,嘻嘻 object SparkHive extends App { val spark: SparkSession = SparkSession.builder() .master("local[*]") .appName("spark_hive") .enableHiveSupport() .getOrCreate() //读取hive中数据表 /*spark.sql("select * from kb12.testsqoop")原创 2021-08-01 00:57:14 · 231 阅读 · 0 评论 -
spark处理本地文件数据
/** spark 根据本地文件来处理数据 样例类+RDD创建DataFrame */ 具体代码如下: object SparkFile { case class Record(shopId:String,date:String,volume:String) def main(args: Array[String]): Unit = { val spark: SparkSession = SparkSession.builder() .master("local[*]").a原创 2021-08-01 00:52:52 · 543 阅读 · 0 评论
分享