
大数据
daimin1
这个作者很懒,什么都没留下…
展开
-
kafka—flume—consumer
以下一切数据都依据本人虚拟机的真实路径数据日志文件的路径/root/data/flume/prolog.log创建kafka主题kafka-topics.sh --create --topic prolog_02 --partitions 1 --replication-factor 1 --bootstrap-server singlebrown:9092创建flume配置文件vim /root/flume_job/logconf/flume02_kafka.confa1.source原创 2021-08-01 01:14:29 · 133 阅读 · 0 评论 -
spark Streaming 实时流
producer类(java)package cn.kgc.stock;import org.apache.kafka.clients.producer.KafkaProducer;import org.apache.kafka.clients.producer.ProducerRecord;import org.apache.kafka.clients.producer.RecordMetadata;import java.util.Properties;import java.util.原创 2021-08-01 01:10:02 · 105 阅读 · 0 评论 -
spark生产者和消费者(附完整代码)
创建工程scala maven添加依赖//版本号 <scala.version>2.12.10</scala.version> <spark.version>3.0.1</spark.version> <spark.scala.version>2.12</spark.scala.version><!-- scala--> <dependency> <gr原创 2021-08-01 01:05:15 · 465 阅读 · 0 评论 -
spark 操作 hive
依赖就不贴了,嘻嘻object SparkHive extends App { val spark: SparkSession = SparkSession.builder() .master("local[*]") .appName("spark_hive") .enableHiveSupport() .getOrCreate() //读取hive中数据表 /*spark.sql("select * from kb12.testsqoop")原创 2021-08-01 00:57:14 · 196 阅读 · 0 评论 -
spark处理本地文件数据
/**spark 根据本地文件来处理数据样例类+RDD创建DataFrame*/具体代码如下:object SparkFile { case class Record(shopId:String,date:String,volume:String) def main(args: Array[String]): Unit = { val spark: SparkSession = SparkSession.builder() .master("local[*]").a原创 2021-08-01 00:52:52 · 487 阅读 · 0 评论 -
Spark 操作 Mysql(附代码)
创建工程选择spark的maven工程依赖(参考)先修改scala的版本为2.12.10<dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.12</artifactId> <version>3.1.2</version> </dependency> <d原创 2021-08-01 00:49:37 · 1356 阅读 · 0 评论