
spark
文章平均质量分 72
记录下学习spark的历程,且将一些知识点与同学们进行分享
似懂非dong
作为一名大数据领域学习者和爱好者,分享自己的学习历程,并将致力于大数据行业的工作。
展开
-
Spark大作业之FLume+Kafka+SparkStreaming实时处理+logj实时生成日志
本学期学习了大数据技术之spark,期末大作业就是使用Flume+kafka+SparkStreaming实现实时处理,在这之中有很多奇奇怪怪的问题出现,最终还是艰难的将此实验完成。如果你也刚好在做这个实验,希望能对你有用。有帮助的好希望一键三连哦,持续学习,持续更新Spark大作业之FLume+Kafka+SparkStreaming实时处理+log4j实时生成日志前言实现方法处理流程分析实现步骤1.创建一个Maven项目并创建两个maven模块2、导入依赖3、配置log4j.properties3.原创 2021-12-19 17:57:57 · 2829 阅读 · 0 评论 -
sparkstreaming+flume+kafka实现实时日志处理
自己动手实现SparkStreaming+Kafka+flume实时处理日志信息并将结果写入到MySQL数据库原创 2021-12-02 19:31:51 · 3074 阅读 · 2 评论 -
SparkStreaming读取kafka生产的数据,进行累计词频统计后将最新结果存入MySQL数据库
SparkStreaming读取kafka生产的数据,进行累计词频统计后将最新结果存入MySQL数据库一、环境准备二、环境启动三、编写程序四、进行测试读取kafka数据,进行累计词频统计,将结果输出到mysql的数据表中!!!!关于使用sparkstreaming读取kafka生产者生产的数据,并且将每一次输入的数据进行词频累计统计,然后将最终结果存储到MySQL数据库中。学习记录~一、环境准备 hadoop集群 zookeeper kafka 在idea中添加依赖 <!--spa原创 2021-11-24 14:43:48 · 2211 阅读 · 0 评论 -
SparkStreaming动态读取kafka生产者生产的数据并将它存入MySQL数据库
SparkStreaming动态读取kafka生产者生产的数据并将它存入MySQL数据库一、环境准备二、编写程序三、进行测试关于使用sparkstreaming读取kafka生产者生产的数据,并且将每一次输入的数据进行词频统计,然后将结果存储到MySQL数据库中。学习记录~一、环境准备 zookeeper kafka二、编写程序在idea中编写SparkStreaming代码:import org.apache.kafka.common.serialization.StringDeseri原创 2021-11-23 15:20:44 · 2084 阅读 · 0 评论 -
使用SparkStreaming实现词频累加统计
使用SparkStreaming实现词频累加统计一、实验环境二、需求分析三、实验环境准备四、编程实现1、编写代码2、启动nc,并输入测试数据3、执行SparkStreaming程序4、执行结果5、查看结果数据是否存储到hadoop集群的hdfs上四、实验结果一、实验环境Windows10+centos7+idea+spark+nc二、需求分析在服务端不断的产生数据,在SparkStreaming客户端持续统计服务端产生的单词的词频的总数三、实验环境准备1、启动hadoop集群分别启动hdfs和原创 2021-11-17 12:05:01 · 3182 阅读 · 0 评论 -
SparkStreaming入门案例Wordcount
@[TOC](spark Stream入门案例))一、准备工作centos7环境spark环境搭建nc安装(netcat):yum -y install nc二、案例分析将nc作为服务端,用户在场产生数据;启动sparkStreaming中案例中的客户端程序,通过nc监听服务器发送的数据,对数据进行词频统计。实现sparkStreaming流式处理的wordcount入门程序三、官网案例1、启动ncnc -l -p 66662、启动sparkStreaminga案例程序进原创 2021-11-15 13:41:37 · 1300 阅读 · 0 评论