Parquet的timestamp类型转为long

针对 Spark SQL 使用 Parquet 文件存储时,默认使用 int96 类型保存 Timestamp 的问题,提供了一个 Java 工具类用于将 Parquet 文件中的 Timestamp 转换为标准的毫秒级时间戳。
部署运行你感兴趣的模型镜像

由于sparksql使用parquet文件存储数据时,有个默认参数spark.sql.parquet.int96AsTimestamp为true,即为保持精度,使用96位的int来存储Timestamp类型,这就为使用java代码解析Timestamp类型带来了麻烦,下面为转换工具类(代码为从github上找的,不是自己写的)。

package com.test.util;

import java.util.concurrent.TimeUnit;

import org.apache.parquet.io.api.Binary;

import com.google.common.primitives.Ints;
import com.google.common.primitives.Longs;

public class ParquetTimestampUtils {
	
	/**
	 * julian date的偏移量,2440588相当于1970/1/1
	 */
	private static final int JULIAN_EPOCH_OFFSET_DAYS = 2440588;
    private static final long MILLIS_IN_DAY = TimeUnit.DAYS.toMillis(1);
    private static final long NANOS_PER_MILLISECOND = TimeUnit.MILLISECONDS.toNanos(1);

    private ParquetTimestampUtils() {}

    /**
     * Returns GMT timestamp from binary encoded parquet timestamp (12 bytes - julian date + time of day nanos).
     *
     * @param timestampBinary INT96 parquet timestamp
     * @return timestamp in millis, GMT timezone
     */
    public static long getTimestampMillis(Binary timestampBinary)
    {
        if (timestampBinary.length() != 12) {
        	return 0;
//            throw new PrestoException(HIVE_BAD_DATA, "Parquet timestamp must be 12 bytes, actual " + timestampBinary.length());
        }
        byte[] bytes = timestampBinary.getBytes();

        // little endian encoding - need to invert byte order
        long timeOfDayNanos = Longs.fromBytes(bytes[7], bytes[6], bytes[5], bytes[4], bytes[3], bytes[2], bytes[1], bytes[0]);
        int julianDay = Ints.fromBytes(bytes[11], bytes[10], bytes[9], bytes[8]);

        return julianDayToMillis(julianDay) + (timeOfDayNanos / NANOS_PER_MILLISECOND);
    }

    private static long julianDayToMillis(int julianDay)
    {
        return (julianDay - JULIAN_EPOCH_OFFSET_DAYS) * MILLIS_IN_DAY;
    }
}



使用的时候

long date = ParquetTimestampUtils.getTimestampMillis(record.getInt96("CREATE_TIME", 0));



您可能感兴趣的与本文相关的镜像

Stable-Diffusion-3.5

Stable-Diffusion-3.5

图片生成
Stable-Diffusion

Stable Diffusion 3.5 (SD 3.5) 是由 Stability AI 推出的新一代文本到图像生成模型,相比 3.0 版本,它提升了图像质量、运行速度和硬件效率

在使用 DataX 创建源表时,若需将 MySQL 的 `timestamp` 类型字段转换为 `bigint` 类型,需要结合 DataX 的类型映射机制和自定义转换逻辑来实现。根据 DataX 的类型转换规则,MySQL 的 `timestamp` 字段默认会被映射为 DataX 内部的 `Date` 类型[^2],而 Hive 中的 `timestamp` 类型在 DataX 中则被映射为 `Date` 类型[^3]。因此,要实现 `timestamp` 到 `bigint` 的转换,需在 DataX 配置中显式定义字段的类型映射,并借助脚本或函数将时间戳转换为毫秒级或秒级时间戳。 --- ### 配置方式 在 DataX 的 JSON 配置文件中,可以通过 `column` 配置项显式指定字段的类型为 `bigint`,并结合数据库函数将 `timestamp` 转换为时间戳数值。例如,在 MySQL 查询语句中使用 `UNIX_TIMESTAMP()` 函数将 `timestamp` 字段转换为秒级时间戳,并在配置中指定字段类型为 `bigint`: ```json { "job": { "content": [ { "reader": { "name": "mysqlreader", "parameter": { "connection": [ { "jdbcUrl": "jdbc:mysql://localhost:3306/mydb", "table": ["mytable"], "column": ["id", "UNIX_TIMESTAMP(ts_column) AS ts_column"] } ], "password": "password", "username": "root" } }, "writer": { "name": "hdfswriter", "parameter": { "defaultFS": "hdfs://localhost:9000", "fileType": "text", "path": "/user/hive/warehouse/mytable", "column": [ {"name": "id", "type": "INT"}, {"name": "ts_column", "type": "BIGINT"} ] } } } ], "setting": { "speed": { "channel": "1" } } } } ``` 上述配置中,`UNIX_TIMESTAMP(ts_column)` 将 MySQL 的 `timestamp` 字段转换为秒级时间戳,再通过 DataX 显式映射为 `bigint` 类型[^2]。 --- ### 注意事项 - 若需要毫秒级精度,可使用 `UNIX_TIMESTAMP(ts_column) * 1000` 进行转换。 - 确保目标表(如 Hive 表)的字段定义与 DataX 的 `column` 配置一致,以避免类型不匹配问题。 - 若使用 ORC 或 Parquet 等列式存储格式,需确保目标表的元数据定义与 DataX 的映射逻辑一致,否则可能需要额外的转换步骤[^3]。 - 若字段较多且需自动映射,建议避免使用 `*` 通配符,而应显式列出字段并进行类型转换。 --- ###
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值