Spark+Kafka构建实时数据分析面板

该项目运用flask后台生成模拟实时交易数据,通过kafka传递给sparkstreaming进行流处理。使用scala编写spark任务对数据进行分类,并将处理结果再次通过kafka发送到flask,利用socket-io实现实时前端展示。

项目实现代码、ppt参考实时交易数据分析平台
参考了Spark课程实验案例:Spark+Kafka构建实时分析


前言

年初公司培训的作业,鸽了很久都没有写博客总结,导致时间久远已经忘了具体的实现方法,这里简单回忆一下,具体内容参考上面的个人github页面。

使用技术

  1. flask
  2. kafka
  3. spark streaming
  4. socket-io

实现思路

  1. 因为没有数据源,所以flask后台线程定时生成固定格式的随机数据,模拟实时交易数据;
  2. 后台启动spark streaming进程,将数据通过kafka发送给spark streaming进行流计算,通过scala编写任务,处理传入的数据,对数据进行分类;
  3. 处理好的数据再通过kafka发送给flask,通过socket-io完成前端展示;
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值