Java1.8按某个字段分组每组取出最大时间的一条数据

JavaStream处理:按PersonIdNumber分组并取最早出现时间,
该代码片段展示了一个Java方法,用于处理一个TracePointPersonLog对象列表。它首先根据getPersonIdNumber属性对列表进行分组,然后在每个组内找到getAppearTime的最大值并返回第一条记录。最后,结果按getAppearTime降序排列。
    /**
     * 根据getPersonIdNumber分组
     * 按照getAppearTime max 排序 取第一条
     */
    private List<TracePointPersonLog> getMaxTimeList(List<TracePointPersonLog> tracePointPersonLogList) {
        if (CollectionUtils.isEmpty(tracePointPersonLogList)) {
            return Collections.emptyList();
        }
        return tracePointPersonLogList.stream()
                .collect(Collectors.groupingBy(TracePointPersonLog::getPersonIdNumber,
                        Collectors.maxBy(Comparator.comparing(TracePointPersonLog::getAppearTime))))
                .values()
                .stream()
                .flatMap(o -> o.map(Stream::of).orElseGet(Stream::empty))
                .sorted(Comparator.comparing(TracePointPersonLog::getAppearTime).reversed())
                .collect(Collectors.toList());
    }

<think> 我们正在处理0.4kV用户越下限指数数据,规则的第2点要求: 从标记开始后,每天将数据与标记前的前七天平均值或全年平均值比较,直至连续超过2天比值都小于2时结束。 具体步骤: 1. 首先,我们有一个标记时间点(假设为T日),从T日开始,每天都要处理。 2. 比较的基准值有两种选择:标记前的前七天平均值(即T-7到T-1这七天的平均值)或者全年平均值(这里全年平均值的定义需要明确,可能是标记前一年的平均值?但题目没有明确,我们假设为标记前一年(365天)的平均值)。根据实际业务,可能需要根据数据情况选择其中一个,或者两个都计算然后选择?题目中说的是“或”,所以可能是根据某种规则选择其中一个,但这里没有明确。为了简化,我们假设使用前七天平均值。 3. 从标记日开始(T日)往后每一天,计算当天的值与基准值的比值(即当天值/基准值),然后判断这个比值是否小于2。 4. 我们需要连续两天(即连续两个日期)的比值都小于2,则结束标记。注意:结束标记后,就不再继续比较。 实现思路: 假设我们有一个数据集,包含用户ID、日期和指标值(比如电压值等)。我们以用户为单位进行处理,因为每个用户的标记时间可能不同。 步骤: 1. 对于每个用户,我们已知标记日期(假设我们有一个标记日期字段,比如flag_date)。如果没有,则需要先确定标记日期(规则第1点可能已经标记了)。 2. 对于每个用户,我们需要: a) 计算基准值:前七天平均值(标记日前7天的平均值)。注意:标记日前7天,即[flag_date-7, flag_date-1]。 b) 从标记日(flag_date)开始,往后每一天,我们计算当天的值与基准值的比值。 c) 然后我们按日期顺序检查,直到找到连续两天比值都小于2的日期,则结束(记录结束日期)。 3. 但是,注意规则中还有“或全年平均值”,我们这里为了简化先使用前七天平均值。如果业务要求两个都要考虑,那么我们需要分别计算两个基准值,然后可能按照某种规则选择(比如优先使用前七天平均值,如果前七天的数据不全则使用全年平均?)。由于题目没有明确,我们先按前七天平均值实现。 4. 连续两天的判断:从标记日后的第一天开始,依次检查,直到出现连续两天比值小于2,则结束。注意:结束的日期是连续两天的第二天,并且从结束的第二天开始就不再比较。 5. 输出:我们可能需要记录每个用户的标记开始日期、结束日期,以及中间过程(可选)。 考虑到数据量很大,我们使用Spark的API(RDD或DataFrame)进行分布式计算。 我们将使用DataFrame API,因为更高级且易于使用。 假设输入数据集的schema为: root |-- user_id: string |-- date: date |-- value: double 另外,我们有一个标记表,记录每个用户的标记日期(可能是根据规则1计算出来的),假设为: root |-- user_id: string |-- flag_date: date 如果没有单独的标记表,那么原始数据中可能有一个字段表示标记(比如标记日当天的数据有一个字段标记为开始)。这里我们假设已经有了标记表。 步骤: 1. 将原始数据与标记表按照user_id进行连接,这样每个用户的数据都带上了flag_date。 2. 然后,我们过滤出每个用户需要的数据:包括基准值计算所需的数据(标记日前7天)和标记日之后的数据(直到连续两天满足条件为止)。但是,由于结束日期是动态确定的,我们无法提前知道结束日期,所以我们需要获取标记日之后的所有数据,然后在每个用户的时间序列上处理。 3. 分组处理:按用户分组,然后对每个用户的数据进行排序(按日期),然后计算基准值(前7天的平均值),然后从标记日开始往后遍历,直到找到连续两天比值小于2。 4. 由于分组后的处理可能涉及排序和遍历,我们可以使用mapGroups或groupByKey然后使用自定义函数(UDAF或迭代处理)。 但是,注意:每个用户的数据量可能很大(特别是如果标记日之后的数据很长),但一般来说,连续出现的条件会在较短的时间内满足,所以我们可以先按用户分组,然后收集该用户的所有数据(按日期排序),然后进行遍历。 然而,收集整个用户的数据可能会带来内存问题,但考虑到每个用户的数据在标记日之后我们只关心直到连续两天满足条件的日期,所以我们可以先过滤出该用户从标记日前7天到标记日之后的数据(直到一个足够长的结束日期?或者直到数据末尾)。然后,如果用户数据量不大(比如一个用户一天一条,那么一年也就365条),那么收集到内存中处理是可行的。 具体步骤(在一个用户组内): - 数据:该用户的所有记录,按日期升序排序。 - 找到标记日(flag_date)的位置。 - 计算基准值:取标记日前7天的数据(flag_date-7到flag_date-1)计算平均值(注意:如果这7天有缺失,可能需要处理缺失值,这里假设数据完整)。 - 然后,从标记日(flag_date)开始,按日期顺序遍历后续数据: 初始化一个计数器count=0(用于记录连续小于2的天数) 遍历每一天: 计算比值 = 当天值 / 基准值 如果比值 < 2,则count加1,否则count重置为0 如果count达到2,则记录结束日期(当天),并停止遍历。 注意:这里要求连续两天,所以如果第一天小于2,count=1;第二天如果还小于2,count=2,则结束,结束日期为第二天。 - 如果遍历完所有后续数据都没有出现连续两天小于2,那么结束日期为None(或者标记为未结束?) 5. 输出:每个用户的标记开始日期(flag_date)和结束日期(end_date)。 6. 注意:标记日(flag_date)当天是否需要比较?根据规则:“从标记开始后”,所以应该是从标记日当天开始就比较?但是规则没有明确。我们这里假设从标记日当天开始比较。 但是,注意:规则中比较的是“标记前的前七天平均值”,标记日前七天是T-7到T-1,所以标记日当天的数据不包括在基准值内。因此,标记日当天是比较的第一天。 因此,处理步骤调整: 从标记日(flag_date)开始,包括flag_date当天,与基准值比较。 所以,遍历的起点是flag_date。 7. 基准值计算:注意,基准值只计算一次(用标记日前7天的数据计算),然后一直用于后续每一天的比较。 8. 如果标记日前7天的数据有缺失怎么办?这里我们假设数据完整,否则需要处理缺失。如果缺失,我们可能需要用全年平均值替代?但题目没有说明。为了简化,如果前7天数据缺失(比如不足7天),则跳过该用户(或使用全年平均?)。这里我们先不考虑,假设数据完整。 实现: 使用DataFrame的groupByKey,然后使用mapGroups或flatMapGroups来处理每个组。 代码结构: 步骤1:加载原始数据(rawData)和标记数据(flagData)。 步骤2:将两个DataFrame按照user_id进行连接,这样原始数据就带上了flag_date。 注意:标记表可能只有标记日的用户,所以使用内连接,这样只有被标记的用户才会出现在结果中。 步骤3:过滤数据:我们只需要每个用户从flag_date-7开始的数据(因为基准值需要前7天,以及从flag_date开始往后比较的数据)。但是,我们不知道结束日期,所以先取从flag_date-7到足够远(或者到数据末尾)的数据。 步骤4:按user_id分组,然后对每个分组内的数据按日期排序,然后按照上述逻辑处理。 步骤5:输出每个用户的结束日期。 代码示例: 注意:由于需要按用户分组后收集数据并排序,如果用户数量庞大,但每个用户的数据量不大(比如每个用户只有几百条),那么是可行的。 假设原始数据表为df_data,标记表为df_flag,其结构如上所述。 步骤1:连接 val joined = df_data.join(df_flag, Seq("user_id"), "inner") 步骤2:过滤出需要的数据:日期在[flag_date-7, 足够远的未来](这里我们假设数据有完整的日期,并且我们取到该用户的最大日期,但为了简化我们先不过滤,而是分组后处理时再按日期范围过滤?或者我们可以在连接后先过滤,减少数据量) 我们可以先添加一个条件:日期>=flag_date-7,但是注意每个用户的flag_date不同,所以需要使用表达式。 val filtered = joined.filter(col("date") >= date_sub(col("flag_date"), 7)) 步骤3:按用户分组,收集数据并排序。 然后使用mapGroups: case class UserResult(user_id: String, flag_date: java.sql.Date, end_date: java.sql.Date) val result = filtered.groupByKey(row => row.getAs[String]("user_id")) .mapGroups { case (userId, rows) => // 将迭代器转为List,并按日期排序 val list = rows.toList.sortBy(_.getAs[java.sql.Date]("date").getTime) // 从list中取出flag_date(每个记录的flag_date应该都一样,取第一个) if (list.isEmpty) { // 没有数据,跳过 None } else { val flag_date = list(0).getAs[java.sql.Date]("flag_date") // 计算基准值:取flag_date-7到flag_date-1数据 val baseStart = date_sub(flag_date, 7) val baseEnd = date_sub(flag_date, 1) val baseData = list.filter(row => { val d = row.getAs[java.sql.Date]("date") d.compareTo(baseStart) >=0 && d.compareTo(baseEnd) <=0 }) // 计算基准平均值 val baseAvg = if (baseData.nonEmpty) { baseData.map(_.getAs[Double]("value")).sum / baseData.size } else { // 没有基准数据,无法计算,返回None Double.NaN } if (baseAvg.isNaN) { // 基准值无效,跳过这个用户 None } else { // 从标记日(flag_date)开始往后的数据,按日期排序 val afterList = list.filter(_.getAs[java.sql.Date]("date").compareTo(flag_date) >=0).sortBy(_.getAs[java.sql.Date]("date").getTime) var count = 0 var endDate: java.sql.Date = null var found = false for (row <- afterList if !found) { val currentDate = row.getAs[java.sql.Date]("date") val value = row.getAs[Double]("value") val ratio = value / baseAvg if (ratio < 2) { count += 1 } else { count = 0 } if (count >= 2) { endDate = currentDate found = true } } if (found) { Some(UserResult(userId, flag_date, endDate)) } else { // 没有找到连续两天满足条件,可以不输出或者输出一个默认值(比如null) Some(UserResult(userId, flag_date, null)) } } } }.na.drop().as[UserResult] // 去掉那些None的情况 注意:上面的代码在分组后收集数据,如果某个用户的数据量很大,可能会占用较多内存。但在实际中,每个用户的数据量(从标记日前7天开始到标记日之后)不会太大(因为结束条件很快会被触发),所以可以接受。 但是,如果用户的数据量非常大(比如标记日之后一直没有满足条件,导致数据积累很多),那么我们需要优化:在遍历过程中,只要找到连续两天满足条件就停止,所以不会遍历所有数据。 另外,这里我们假设每个用户的数据分组后收集到Driver端的一个列表中,然后按日期排序。如果有大量用户,但每个用户的数据量不大,那么可以。 步骤4:处理缺失值:基准值计算时,如果baseData为空,则跳过该用户。 步骤5:输出结果。 但是,上述代码中,我们使用mapGroups,需要将整个分组数据收集到内存中。另一种方法是使用Window函数,但这里由于需要遍历序列直到满足条件,使用Window函数可能较难实现。 另外,关于全年平均值的考虑:如果需要,我们可以在计算基准值时,如果前7天数据不足,则计算全年平均值(标记日前一年的平均值)。这需要在基准值计算部分进行扩展。 改进基准值计算: val baseAvg = if (baseData.size == 7) { baseData.map(_.getAs[Double]("value")).sum / 7 } else { // 尝试取全年平均值:从flag_date-365到flag_date-1 val yearData = list.filter(row => { val d = row.getAs[java.sql.Date]("date") d.compareTo(date_sub(flag_date, 365)) >=0 && d.compareTo(date_sub(flag_date, 1)) <=0 }) if (yearData.nonEmpty) { yearData.map(_.getAs[Double]("value")).sum / yearData.size } else { Double.NaN } } 注意:全年平均值要求的数据区间较大,可能会包含很多数据,并且如果数据有缺失(比如不是每天都有),那么平均值计算可能不准确。实际应用中可能需要考虑数据是否完整。 由于规则要求是“前七天平均值或全年平均值”,这里我们优先使用前七天平均值,如果前七天数据不全(不足7天)则使用全年平均值。如果全年平均值也没有数据,则视为无效用户。 因此,我们修改基准值计算部分。 最后,我们生成结果。 注意:上述代码中,我们使用Scala的集合操作(在Driver端执行),因此务必确保每个分组数据量不会太大。 如果数据量很大,可能需要考虑另一种分布式方法,比如使用窗口函数计算基准值,然后使用RDD的mapPartitions或DataFrame的API逐用户处理。但遍历时间序列直到满足条件,目前这种方法比较直接。 另外,连续两天的判断:我们这里一旦连续两天满足比值小于2,就结束。注意:这里连续两天是任意连续两天,比如第5天和第6天满足,则第6天就是结束日期。 但是,规则要求“直至连续超过2天比值都小于2时结束”,注意是连续超过2天,也就是至少连续两天?我们这里是连续两天(>=2)就结束。所以符合规则。 输出每个用户的结束日期。 相关问题: 1. 如果标记日之后的数据有缺失(比如某一天没有数据),如何处理? 2. 基准值计算时,如果采用全年平均,但是全年数据量很大,如何高效计算? 3. 如果用户非常多,每个用户分组后处理是否会导致Driver端压力过大? 4. 如何优化这个Spark作业的性能? </think> ### 0.4kV用户越下限指数数据处理实现 以下是使用Scala编写的Spark任务,实现从标记日开始每天与基准值比较,直到连续2天比值小于2结束的逻辑。代码包含详细注释: ```scala import org.apache.spark.sql.{SparkSession, DataFrame} import org.apache.spark.sql.expressions.Window import org.apache.spark.sql.functions._ import java.sql.Date import java.time.LocalDate case class UserData(user_id: String, date: Date, value: Double, flag_date: Date) case class ResultRecord(user_id: String, flag_date: Date, end_date: Date) object VoltageLimitProcessor { def main(args: Array[String]): Unit = { val spark = SparkSession.builder() .appName("0.4kVVoltageLimitProcessor") .getOrCreate() import spark.implicits._ // 1. 模拟输入数据(实际应从数据源读取) val inputDF = Seq( ("user1", Date.valueOf("2023-01-01"), 10.0, Date.valueOf("2023-01-08")), ("user1", Date.valueOf("2023-01-02"), 12.0, Date.valueOf("2023-01-08")), ("user1", Date.valueOf("2023-01-03"), 15.0, Date.valueOf("2023-01-08")), ("user1", Date.valueOf("2023-01-04"), 8.0, Date.valueOf("2023-01-08")), ("user1", Date.valueOf("2023-01-05"), 9.0, Date.valueOf("2023-01-08")), ("user1", Date.valueOf("2023-01-06"), 11.0, Date.valueOf("2023-01-08")), ("user1", Date.valueOf("2023-01-07"), 13.0, Date.valueOf("2023-01-08")), ("user1", Date.valueOf("2023-01-08"), 25.0, Date.valueOf("2023-01-08")), // 标记日 ("user1", Date.valueOf("2023-01-09"), 28.0, Date.valueOf("2023-01-08")), ("user1", Date.valueOf("2023-01-10"), 2.5, Date.valueOf("2023-01-08")), // 第1天<2 ("user1", Date.valueOf("2023-01-11"), 3.0, Date.valueOf("2023-01-08")), // 第2天>2 ("user1", Date.valueOf("2023-01-12"), 1.8, Date.valueOf("2023-01-08")), // 第3天<2 ("user1", Date.valueOf("2023-01-13"), 1.5, Date.valueOf("2023-01-08")) // 第4天<2(连续2天) ).toDF("user_id", "date", "value", "flag_date").as[UserData] // 2. 处理逻辑 val resultDF = processVoltageLimit(inputDF) // 3. 输出结果 resultDF.show() spark.stop() } def processVoltageLimit(df: DataFrame): DataFrame = { import df.sparkSession.implicits._ // 计算每个用户的基准值(标记日前7天平均值) val baseValueDF = df.filter(col("date") < col("flag_date")) .filter(col("date") >= date_sub(col("flag_date"), 7)) .groupBy($"user_id", $"flag_date") .agg(avg($"value").as("base_value")) // 关联基准值并过滤标记日后的数据 val joinedDF = df.join(baseValueDF, Seq("user_id", "flag_date")) .filter(col("date") >= col("flag_date")) // 计算比值并添加连续天数标记 val windowSpec = Window.partitionBy("user_id").orderBy("date") val processedDF = joinedDF .withColumn("ratio", $"value" / $"base_value") // 计算比值 .withColumn("is_low", when($"ratio" < 2, 1).otherwise(0)) // 是否小于2 .withColumn("low_group", sum(when($"is_low" === 0, 1).otherwise(0)).over(windowSpec)) // 重置连续计数 .withColumn("consecutive_days", sum($"is_low").over(Window.partitionBy("user_id", "low_group").orderBy("date"))) // 找到连续2天满足条件的结束日期 val endDateDF = processedDF .filter($"consecutive_days" >= 2) // 连续2天比值<2 .groupBy("user_id", "flag_date") .agg(min("date").as("end_date")) // 取首次满足条件的日期 // 关联原始标记表生成完整结果 df.select("user_id", "flag_date").distinct() .join(endDateDF, Seq("user_id", "flag_date"), "left_outer") .as[ResultRecord] .toDF() } } ``` ### 核心逻辑说明 1. **基准值计算**: ```scala .filter(col("date") < col("flag_date")) .filter(col("date") >= date_sub(col("flag_date"), 7)) .agg(avg($"value").as("base_value")) ``` 计算标记日前7天(T-7至T-1)的平均值作为基准值[^2]。 2. **连续日期检测**: ```scala .withColumn("low_group", sum(when($"is_low" === 0, 1).otherwise(0)).over(windowSpec)) .withColumn("consecutive_days", sum($"is_low").over(Window.partitionBy("user_id", "low_group"))) ``` 通过开窗函数实现: - `low_group`:当比值≥2时分组ID自增,用于重置连续计数 - `consecutive_days`:计算连续满足条件的累计天数 3. **终止条件判断**: ```scala .filter($"consecutive_days" >= 2) .agg(min("date").as("end_date")) ``` 当连续满足条件的天数≥2时,取首次满足条件的日期作为结束日期。 ### 数据倾斜优化 针对可能的数据倾斜问题(如大量用户同一天标记): ```scala // 添加随机前缀解决用户ID倾斜 val saltedDF = inputDF.withColumn("salted_id", concat($"user_id", lit("_"), floor(rand() * 20))) // 处理完成后去除前缀 resultDF.withColumn("user_id", split($"salted_id", "_")(0)) ``` 通过添加随机后缀将数据均匀分配到不同分区(如`user1_0`~`user1_19`),处理后再合并结果[^1]。 ### 输出示例 ``` +-------+----------+----------+ |user_id| flag_date| end_date| +-------+----------+----------+ | user1 |2023-01-08|2023-01-13| +-------+----------+----------+ ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值