用spark实现count(distinct fieldname)形式的聚合

本文介绍如何使用Apache Spark进行数据聚合操作,以统计用户访问次数及不同URL数量为例,详细展示了从数据读取到处理再到结果输出的全过程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

举个例子,比如要统计用户的总访问次数和去除访问同一个URL之后的总访问次数,随便造了几条样例数据(四个字段:id,name,vtm,url,vtm字段本例没用,不用管)如下:

id1,user1,2,http://www.hupu.com
id1,user1,2,http://www.hupu.com
id1,user1,3,http://www.hupu.com
id1,user1,100,http://www.hupu.com
id2,user2,2,http://www.hupu.com
id2,user2,1,http://www.hupu.com
id2,user2,50,http://www.hupu.com
id2,user2,2,http://touzhu.hupu.com
根据这个数据集,我们可以写hql 实现:select id,name, count(0) as ct,count(distinct url) as urlcount from table group by id,name.

得出结果应该是:

id1,user1,4,1

id2,user2,4,2

下面用spark实现这个聚合功能:

import org.apache.spark.SparkContext._
import org.apache.spark._

/**
 * Created by xiaojun on 2015/3/9.
 */
object SparkDemo2 {
  def main(args: Array[String]) {

    case class User(id: String, name: String, vtm: String, url: String)
    //val rowkey = (new RowKey).evaluate(_)
    val HADOOP_USER = "hdfs"
    // 设置访问spark使用的用户名
    System.setProperty("user.name", HADOOP_USER);
    // 设置访问hadoop使用的用户名
    System.setProperty("HADOOP_USER_NAME", HADOOP_USER);

    val conf = new SparkConf().setAppName("wordcount").setMaster("local").setExecutorEnv("HADOOP_USER_NAME", HADOOP_USER)
    val sc = new SparkContext(conf)
    val data = sc.textFile("test.txt")
    val rdd1 = data.map(line => {
      val r = line.split(",")
      User(r(0), r(1), r(2), r(3))
    })
    val rdd2 = rdd1.map(r => ((r.id, r.name), r))

    val seqOp = (a: (Int, List[String]), b: User) => a match {
      case (0, List()) => (1, List(b.url))
      case _ => (a._1 + 1, b.url :: a._2)
    }

    val combOp = (a: (Int, List[String]), b: (Int, List[String])) => {
      (a._1 + b._1, a._2 ::: b._2)
    }

    println("-----------------------------------------")
    val rdd3 = rdd2.aggregateByKey((0, List[String]()))(seqOp, combOp).map(a => {
      (a._1, a._2._1, a._2._2.distinct.length)
    })
    rdd3.collect.foreach(println)
    println("-----------------------------------------")
    sc.stop()
  }

}
输出结果如下:

((id1,user1),4,1)
((id2,user2),4,2)
与HQL输出一致.


### Spark使用 `count distinct` 操作时可能遇到的性能瓶颈及优化方法 在 Spark 中,`count distinct` 操作通常会引发较大的性能瓶颈,主要体现在数据倾斜、任务执行时间过长以及内存溢出(OOM)等方面。`count distinct` 操作本质上需要对数据进行去重,而 Spark 的去重机制依赖于 `groupBy` 或 `aggregate` 等操作,这些操作在数据分布不均时容易导致任务分配不均,从而引发数据倾斜问题。个别 Task 处理的数据量远超其他 Task,导致整个 Job 的执行时间被严重拖慢,甚至可能导致 OOM 异常 [^1]。 此外,`count distinct` 通常会触发 Shuffle 操作,而 Shuffle 是 Spark 中代价最高的操作之一。Shuffle 涉及到数据在网络中的传输和磁盘 I/O,进一步加剧了性能瓶颈。在极端情况下,该操作会导致任务执行时间变得不可接受 [^1]。 为了优化 `count distinct` 的性能,可以采用以下几种策略: 1. **使用 `group by` 替代 `count distinct`** 一种常见的优化方式是先使用 `group by` 对数据进行分组,然后再进行汇总。这种方式可以避免直接使用 `count distinct` 所带来的性能问题。例如: ```sql SELECT group_id, app_id, SUM(CASE WHEN 7d_cnt > 0 THEN 1 ELSE 0 END) AS 7d_uv, SUM(CASE WHEN 14d_cnt > 0 THEN 1 ELSE 0 END) AS 14d_uv FROM ( SELECT group_id, app_id, user_id, COUNT(CASE WHEN dt > '${7d_before}' THEN user_id ELSE NULL END) AS 7d_cnt, COUNT(CASE WHEN dt > '${14d_before}' THEN user_id ELSE NULL END) AS 14d_cnt FROM tbl WHERE dt > '${14d_before}' GROUP BY group_id, app_id, user_id ) a GROUP BY group_id, app_id; ``` 这种方式通过先按 `user_id` 分组,再对每个分组进行统计,可以有效减少数据倾斜的风险,并提升执行效率 [^3]。 2. **增加并行度** 通过增加 Spark 的并行度(如调整 `spark.sql.shuffle.partitions`),可以将数据划分到更多的分区中,从而降低每个分区的数据量,缓解数据倾斜问题。例如,将 `spark.sql.shuffle.partitions` 设置为一个较大的值,可以显著改善 `count distinct` 的性能 [^1]。 3. **使用 Salting 技术处理数据倾斜** 对于存在严重数据倾斜的列,可以采用 Salting 技术,将数据均匀分布到多个分区中。具体做法是对倾斜列的值进行哈希处理,并将其拆分为多个子键,从而将数据均匀分布到不同的分区中,避免单个 Task 处理过多数据 [^1]。 4. **避免自定义 UDF** 在 Spark 中,尽量避免使用自定义 UDF 来实现业务逻辑,因为 UDF 通常会导致性能下降。Spark 内置的 SQL Functions 经过优化,能够更高效地处理数据。因此,应优先使用内置函数来实现 `count distinct` 相关的逻辑 [^2]。 5. **使用近似算法** 如果业务允许一定程度的误差,可以使用 Spark 提供的近似算法(如 `approxCountDistinct`)。该方法基于 HyperLogLog 算法,能够在较低的资源消耗下提供近似的去重结果,适用于大规模数据集的场景 [^1]。 综上所述,`count distinct` 在 Spark 中可能会引发严重的性能问题,尤其是在数据倾斜严重的情况下。通过合理调整并行度、使用 Salting 技术、避免 UDF、使用近似算法等方法,可以有效缓解这些瓶颈,提升任务执行效率。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值