SPARK计算用户不同时段的消费金额

本文介绍如何使用 Apache Spark Streaming 进行实时数据处理与分析。通过从 Kafka 消费主题数据,解析 JSON 格式的支付记录,并进行聚合计算,如用户消费总额、消费次数及平均每分钟消费金额等。
import com.alibaba.fastjson.JSON
import org.apache.spark.streaming.dstream.DStream
import org.apache.spark.streaming.{Seconds, StreamingContext}
import org.apache.spark.streaming.kafka010.{ConsumerStrategies, KafkaUtils, LocationStrategies}

object StreamingETL2 extends App {



  val ssc=Spark_Utils.apply

  //{"user_name": "47vm9sfSn14","user_region": "甘肃省","user_id": 44953796,"pay_way": "支付宝支付","pay_Time": "1524837923","user_active_id": 1,"user_prop_id": 8,"pay_money": 536,"pay_times": 113}

  case class pay_time(user_name:String,user_region:String,user_id:String,pay_way:String,pay_Time:String,user_active_id:Int,user_prop_id:Int,pay_money:Int,pay_times:Int)

  val topics = Array("recharge_topic_li")
  val stream = KafkaUtils.createDirectStream[String, String](
    ssc,
    LocationStrategies.PreferConsistent,//存储策略,如果broker与Kafka代理位于相同的主机上,那么使用PreferBrokers,它更愿意为该分区在Kafka leader上调度分区。最后,如果分区之间的负载有明显的倾斜,请使用PreferFixed
    ConsumerStrategies.Subscribe[String, String](topics, Spark_Utils.kafka_util)
  )

  //计算每个用户的消费总和
  val paymoney= stream.map(f=>{

    val sf=f.value()
    val js=JSON.parseObject(sf,classOf[pay_time])
    Tuple2(js.user_id,js.pay_money)
  }).reduceByKey(_+_)
  

  //打标签 计算每个用户的消费次数
  val paycount=stream.map(f=>{

    val sf=f.value()
    val js=JSON.parseObject(sf,classOf[pay_time])
    (js.user_id,1)

  }).reduceByKey(_+_)



  //计算每5秒每个用户的平均消费金额

  def payavg(usersum:DStream[(String,Int)],usercount:DStream[(String,Int)])={
//    implicit def Int2Double(x:DStream[String],y:DStream[Int])=(x:DStream[String],y.map(f=>f.toDouble))

    //这里与另一个join 可以拿取相同的字段 
    val payment=usersum.join(usercount).map(f=>{
      // 消费/次数
      val user=f._1
      val money =f._2._1
      val count=f._2._2

      (user,0.1*money/count)
    })
    payment

  }

  ssc.checkpoint("window")

  //每5秒求用户前一分钟的消费
  val paymoneys=paymoney.reduceByKeyAndWindow(_+_,_-_,Seconds(5),Seconds(60))

  //每5秒求用户前一分钟的消费次数
  val paycounts= paycount.reduceByKeyAndWindow(_+_,_-_,Seconds(5),Seconds(60))

  val payavgs=payavg(paymoneys,paycounts).map(f=>println(f._1+"平均消费"+f._2)).print()

  ssc.start()
  ssc.awaitTermination()
}
功能1. 订单全流程数据分析与可视化:​ 利用 Hadoop 处理美团外卖订单数据(订单 ID、用户 ID、商家 ID、骑手 ID、下单时间、送达时间、商品清单、订单金额、配送距离、用户评价等),通过 Hive 进行数据清洗、格式转换与聚合计算。使用可视化工具,以漏斗图展示从下单到完成的订单流失环节;用折线图分析不同时段(早午晚餐、节假日)的订单量变化趋势;以地图热力图呈现区域订单密度分布,帮助平台优化资源调配,提升订单完成率。​ 功能2. 骑手配送效率分析与可视化优化:​ 通过 Hadoop 存储骑手配送数据(骑手 ID、接单时间、取餐时间、送餐时间、配送里程、异常订单记录等),利用 Hive 计算骑手平均配送时长、准时率、单日接单量等指标。使用可视化工具,在地图上标注骑手实时位置与配送路线;以仪表盘展示骑手绩效排名;用甘特图对比不同骑手的订单处理节奏,为骑手排班、奖惩制度制定提供数据支持,提高整体配送效率。​ 功能3. 商家经营状况分析与可视化评估:​ 基于商家数据(商家 ID、商品类别、菜品销量、用户评分、差评原因、营业时长、促销活动记录等),运用 Hadoop 与 Hive 分析商家销售额、复购率、用户满意度等核心指标。使用可视化工具,以柱状图对比同类商家的销量与评分;用词云图提取差评高频关键词;通过折线图展示促销活动对销量的影响,帮助商家优化菜品结构、调整营销策略,同时为平台筛选优质商家提供依据。​ 功能4. 用户消费行为与偏好分析可视化:​ 借助 Hadoop 处理用户行为数据(用户 ID、订单频次、消费金额、商品品类偏好、支付方式、评价习惯等),通过 Hive 挖掘用户消费特征。使用可视化工具,以饼图展示用户消费金额分布区间;用热力图呈现用户下单时段与品类的关联;通过用户画像仪表盘展示高价值用户特征,助力平台实现精准营销、个性化推荐,提升用户粘性。​ 功能5. 热门菜品与区域消费趋势可视化:​ 利用 Hadoop 对菜品销售数据(菜品 ID、所属商家、销量、销售额、地域分布等)进行分析,通过 Hive 统计不同区域、时段的热门菜品及销量变化。使用可视化工具,在地图上标注各区域的。 怎么完成上述五个功能,我没有数据,帮我拟造每个功能两万个数据
06-11
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值