Spark经典案例之求平均值,最大最小值,求top值,非结构数据处理,统计每天新增用户数

该博客详细介绍了使用Spark进行数据处理的经典案例,包括计算平均值、求最大最小值、获取TopN值以及处理非结构数据。实例涉及学生成绩平均计算、日志数据的统计分析,如统计每天新增用户数,展示了解决这些问题的Spark代码实现。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1、需求分析
对输入文件中数据进行就算学生平均成绩。输入文件中的每行内容均为一个学生的姓名和他相应的成绩,如果有多门学科,则每门学科为一个文件。
要求在输出中每行有两个间隔的数据,其中,第一个代表学生的姓名,第二个代表其平均成绩。

2、原始数据
1)math:
张三,88
李四,99
王五,66
赵六,77

2)china:
张三,78
李四,89
王五,96
赵六,67

3)english:
张三,80
李四,82
王五,84
赵六,86

样本输出:
张三,82
李四,90
王五,82
赵六,76

package ClassicCase

import org.apache.spark.{SparkConf, SparkContext}

/**
  * 业务场景:求平局值
  * Created by YJ on 2017/2/8.
  */


object case4 {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setMaster("local").setAppName("reduce")
    val sc = new SparkContext(conf)
    sc.setLogLevel("ERROR")
    val four = sc.textFile("hdfs://192.168.109.130:8020//user/flume/ClassicCase/case4/*", 3)

    val a = four.filter(_.trim.length > 0) //数据过滤
      .map(line => //数据整理
      (line.trim().split(",")(0), line.trim.split(",")(1).toInt)
    )
      .groupByKey() //按key分组 (张三,CompactBuffer(78, 80, 88))
      .map(x => {
      var num = 0.0
      var sum = 0
      for (i <- x._2) {
        //遍历该值
        sum = sum + i
        num = num + 1
      }
      val avg = sum / num
      val fm = f"$avg%1.2f"   //1.2->取后面两位小数,格式化数据
      println("fm:"+fm)
      (x._1, fm)
    }
    ).collect.foreach(x => println(x._1+"\t"+x._2))

    //资源学习
    var floatVar = 12.456
    var intVar = 2000
    var stringVar = "资源学习!"
    var fs = printf(
      "浮点型变量为 " + "%1.2f, " +
        "整型变量为  " + "%d,"+
        "字符串为 " + " %s", floatVar, intVar, stringVar)
    println(fs)


  }

}

输出结果
fm:90.00
fm:82.00
fm:82.00
fm:76.67
李四 90.00
王五 82.00
张三 82.00
赵六 76.67
浮点型变量为 12.46, 整型变量为 2000,字符串为 资源学习!()

Spark经典案之求最大最小值

数据准备
eightteen_a.txt
102
10
39
109
200
11
3
90
28

eightteen_b.txt
5
2
30
838
10005

package ClassicCase

import org.apache.spark.{SparkConf, SparkContext}

/**
  * 业务场景:求最大最小值
  * Created by YJ on 2017/2/8.
  */


object case5 {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setMaster(&#
基于Spark的数据分析是一种高效、快速的大数据处理技术,它能够在分布式环境中对大规模数据集进行批处理实时流式计算。以下是关于如何利用Spark实现数据分析的一些关键点: ### Spark的核心特点 1. **内存计算**:Spark将中间结果存储在内存中,减少了磁盘I/O操作,极大地提升了性能。 2. **容错机制**:通过RDD(弹性分布式数据集)提供自动化的节点失败恢复功能,保证了任务的稳定性。 3. **丰富的API支持**:包括Scala、Python、Java等语言的支持,并且还提供了SQL查询接口(Spark SQL)以及机器学习库(MLlib),方便用户根据不同需选择合适的工具。 ### 实现步骤概览 #### 1. 环境搭建 - 安装Apache Spark框架及相关依赖项; - 配置集群模式(本地单机版/远程YARN/Mesos); #### 2. 数据加载 使用`SparkSession.read()`方法读取来自HDFS或者其他文件系统中的结构化或非结构化数据源。例如从CSV或者JSON格式导入表格型信息供后续分析使用。 ```scala val spark = SparkSession.builder.appName("example").getOrCreate() // 加载csv文件到DataFrame里 val df = spark.read.format("com.databricks.spark.csv") .option("header","true") // 第一行作为列名 .load("/path/to/csvfile") ``` #### 3. ETL过程 (Extract-Transform-Load) 在这个阶段会对原始数据执行清洗过滤转换等一系列预处理动作,使其更适合进一步统计建模等活动。常见的ETL流程包含但不限于以下几个方面: - 缺失填补; - 类别变量编码映射至数形式以便参与数学运算; - 时间戳解析生成标准日期时间字段便于按时间段汇总指标。 #### 4. 分析挖掘 借助内置函数或者自定义UDF(User Defined Function),可以轻松完成各种复杂的业务规则设定与聚合操作。比如平均数、最大最小值比较等等基本描述性统计量之外还能尝试探索更多深层次关联规律。 示例代码片段展示如何获取某列均并打印出来: ```scala import org.apache.spark.sql.functions._ df.select(avg($"some_column")).show() ``` #### 5. 可视化呈现 最后一步就是把所得结论清晰明了地展现给观众啦~通常我们会结合第三方图表渲染引擎如Matplotlib(seaborn)/Plotly绘制出直观易懂的画面效果辅助决策制定者理解数据背后的含义价所在之处! --- 以上只是简单介绍了整个工作链条大致脉络走向而已哦,实际项目当中可能会遇到许多意想不到的新情况需要随机应变灵活应对才行呢~
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值