分布式全局ID

分布式全局ID

1、概述

在项目开发中,随着业务的不断发展数据日增大。这个时候就会出现数据表的分库分表的操作。一旦进行了分库和分表操作。传统的id就失去了意义。所以需要分布式全局ID

2、特点

  1. 全局唯一性,不能出现重复的ID
  2. 单调递增,保证下一个ID一定大于上一个ID
  3. 范围趋势递增。在一个时间段内,生成的ID是递增趋势的比如:202012120001 202012120002….
    第二天的时候又要从1开始计数。202012130001 202012130002……
  4. 安全性,在不同的领域中我们有些业务不要出现连续的递增,可以很好的保护数据格式和形态。因为很容易让竞争对手套取数据。

分布式系统定理:CAP定理

在分布式系统,不可能完成保证系统数据完全一致性。只能容忍出错,最终能到达到一致性。

3、实现方式

  • UUID

UUID基于当前时间、计数器(counter)和硬件标识(通常为无线网卡MAC地址)等数据计算生成

package com.example.utils;

import java.util.UUID;

/**
 * @Auther: 长颈鹿
 * @Date: 2021/08/11/14:30
 * @Description:
 */
public class UuidTest {

    public static void main(String[] args) {
        String s = UUID.randomUUID().toString();
        System.out.println(s);
        System.out.println(s.length());
    }

}

运行结果

3ff7fa1a-5301-4ee3-b894-d3e033ecae9f
36

特点:可读性很差,一般很少使用。可以用来命名图片名字。

  • Redis:提供命令:incr ,统计累加,单线程,不会出现重复。

  • Twitter雪花算法

package com.example.utils;

import org.springframework.stereotype.Component;

/**
 * Twitter_Snowflake<br>
 * SnowFlake的结构如下(每部分用-分开):<br>
 * 0 - 0000000000 0000000000 0000000000 0000000000 0 - 00000 - 00000 -
 * 000000000000 <br>
 * 1位标识,由于long基本类型在Java中是带符号的,最高位是符号位,正数是0,负数是1,所以id一般是正数,最高位是0<br>
 * 41位时间截(毫秒级),注意,41位时间截不是存储当前时间的时间截,而是存储时间截的差值(当前时间截 - 开始时间截)
 * 得到的值),这里的的开始时间截,一般是我们的id生成器开始使用的时间,由我们程序来指定的(如下下面程序IdWorker类的startTime属性)。41位的时间截,可以使用69年,年T
 * = (1L << 41) / (1000L * 60 * 60 * 24 * 365) = 69<br>
 * 10位的数据机器位,可以部署在1024个节点,包括5位datacenterId和5位workerId<br>
 * 12位序列,毫秒内的计数,12位的计数顺序号支持每个节点每毫秒(同一机器,同一时间截)产生4096个ID序号<br>
 * 加起来刚好64位,为一个Long型。<br>
 * SnowFlake的优点是,整体上按照时间自增排序,并且整个分布式系统内不会产生ID碰撞(由数据中心ID和机器ID作区分),并且效率较高,经测试,SnowFlake每秒能够产生26万ID左右。
 */
@Component
public class SnowflakeIdWorker {

    // ==============================Fields===========================================
    /**
     * 开始时间截 (2015-01-01)
     */
    private final long twepoch = 1420041600000L;

    /**
     * 机器id所占的位数
     */
    private final long workerIdBits = 5L;

    /**
     * 数据标识id所占的位数
     */
    private final long datacenterIdBits = 5L;

    /**
     * 支持的最大机器id,结果是31 (这个移位算法可以很快的计算出几位二进制数所能表示的最大十进制数)
     */
    private final long maxWorkerId = -1L ^ (-1L << workerIdBits);

    /**
     * 支持的最大数据标识id,结果是31
     */
    private final long maxDatacenterId = -1L ^ (-1L << datacenterIdBits);

    /**
     * 序列在id中占的位数
     */
    private final long sequenceBits = 12L;

    /**
     * 机器ID向左移12位
     */
    private final long workerIdShift = sequenceBits;

    /**
     * 数据标识id向左移17位(12+5)
     */
    private final long datacenterIdShift = sequenceBits + workerIdBits;

    /**
     * 时间截向左移22位(5+5+12)
     */
    private final long timestampLeftShift = sequenceBits + workerIdBits + datacenterIdBits;

    /**
     * 生成序列的掩码,这里为4095 (0b111111111111=0xfff=4095)
     */
    private final long sequenceMask = -1L ^ (-1L << sequenceBits);

    /**
     * 工作机器ID(0~31)
     */
    private long workerId;

    /**
     * 数据中心ID(0~31)
     */
    private long datacenterId;

    /**
     * 毫秒内序列(0~4095)
     */
    private long sequence = 0L;

    /**
     * 上次生成ID的时间截
     */
    private long lastTimestamp = -1L;

    // ==============================Constructors=====================================

    public SnowflakeIdWorker() {
        this(1L,2L);
    }

    /**
     * 构造函数
     *
     * @param workerId     工作ID (0~31)
     * @param datacenterId 数据中心ID (0~31)
     */
    public SnowflakeIdWorker(long workerId, long datacenterId) {

        if (workerId > maxWorkerId || workerId < 0) {
            throw new IllegalArgumentException( String.format("worker Id can't be greater than %d or less than 0", maxWorkerId));
        }

        if (datacenterId > maxDatacenterId || datacenterId < 0) {
            throw new IllegalArgumentException( String.format("datacenter Id can't be greater than %d or less than 0", maxDatacenterId));
        }

        this.workerId = workerId;
        this.datacenterId = datacenterId;
    }

    // ==============================Methods==========================================

    /**
     * 获得下一个ID (该方法是线程安全的)
     *
     * @return SnowflakeId
     */
    public synchronized long nextId() {
        long timestamp = timeGen();

        // 如果当前时间小于上一次ID生成的时间戳,说明系统时钟回退过这个时候应当抛出异常
        if (timestamp < lastTimestamp) {
            throw new RuntimeException(String.format(
                    "Clock moved backwards.  Refusing to generate id for %d milliseconds", lastTimestamp - timestamp));
        }

        // 如果是同一时间生成的,则进行毫秒内序列
        if (lastTimestamp == timestamp) {
            sequence = (sequence + 1) & sequenceMask;
            // 毫秒内序列溢出
            if (sequence == 0) {
                // 阻塞到下一个毫秒,获得新的时间戳
                timestamp = tilNextMillis(lastTimestamp);
            }
        }
        // 时间戳改变,毫秒内序列重置
        else {
            sequence = 0L;
        }

        // 上次生成ID的时间截
        lastTimestamp = timestamp;

        // 移位并通过或运算拼到一起组成64位的ID
        return ((timestamp - twepoch) << timestampLeftShift) //
                | (datacenterId << datacenterIdShift) //
                | (workerId << workerIdShift) //
                | sequence;
    }

    /**
     * 阻塞到下一个毫秒,直到获得新的时间戳
     *
     * @param lastTimestamp 上次生成ID的时间截
     * @return 当前时间戳
     */
    protected long tilNextMillis(long lastTimestamp) {
        long timestamp = timeGen();
        while (timestamp <= lastTimestamp) {
            timestamp = timeGen();
        }
        return timestamp;
    }

    /**
     * 返回以毫秒为单位的当前时间
     *
     * @return 当前时间(毫秒)
     */
    protected long timeGen() {
        return System.currentTimeMillis();
    }

    // ==============================Test=============================================

    /**
     * 测试
     */
    public static void main(String[] args) {
        SnowflakeIdWorker idWorker = new SnowflakeIdWorker(0, 0);
        for (int i = 0; i < 1000; i++) {
            long id = idWorker.nextId();
            // System.out.println(Long.toBinaryString(id));
            System.out.println(id);
        }

    }
}
  • 美团Leaf算法
  • 百度分布式 ID

4、使用Redis实现分布式全局ID

4.1 定义id生成器
package com.example.service;

import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.data.redis.support.atomic.RedisAtomicLong;
import org.springframework.stereotype.Service;

/**
 * @Auther: 长颈鹿
 * @Date: 2021/08/11/14:34
 * @Description:
 */
@Service
public class RedisCreatorIdService {

    @Autowired
    private RedisTemplate redisTemplate;

    public Long getRedisId(String key){
        // 给商品表添加分布式ID
        RedisAtomicLong entityIdCounter = new RedisAtomicLong(key, redisTemplate.getConnectionFactory());
        // 计数器累加
        Long increment = entityIdCounter.incrementAndGet();
//        Long increment = redisTemplate.opsForValue().increment(key);
        return increment;
    }


}
4.2 测试调用
package com.example.controller;

import com.example.service.RedisCreatorIdService;
import lombok.extern.slf4j.Slf4j;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.RestController;

/**
 * @Auther: 长颈鹿
 * @Date: 2021/08/11/14:39
 * @Description:
 */
@RestController
@Slf4j
public class RedisCreatorIdController {

    @Autowired
    private RedisCreatorIdService redisCreatorIdService;

    @GetMapping("/redis/id")
    public Long incrementId(){
        Long productId = redisCreatorIdService.getRedisId("id:creator:product");
//        Long orderId = redisCreatorIdService.getRedisId("id:creator:order");
        log.info("生成Id:{}",productId);
        return productId;
    }
}

5、Redis的Inc实现分库分表存储的解决方案

海量的数据存储一般都采用分库分表来进行存储。一般最多分1024个表,一般建表如:product_0,product_1,product_2……product_1023个表。

package com.example.controller;

import com.example.entiy.Product;
import com.example.service.RedisCreatorIdService;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.web.bind.annotation.PostMapping;

/**
 * @Auther: 长颈鹿
 * @Date: 2021/08/11/15:11
 * @Description:
 */
public class ProductController {

    @Autowired
    private RedisCreatorIdService redisCreatorIdService;

    @PostMapping("/product/save")
    public String saveProduct() {
        // 创建产品的分布式全局ID
        Long productId = redisCreatorIdService.getRedisId("id:creator:product");
        // 创建产品
        Product product = new Product();
        product.setId(productId);//product_1表
        product.setTitle("title:" + productId);
        System.out.println("保存产品是:" + product.toString());
        // 存储到指定的数据库产品表中
        int table = (int) (productId % 1024);
        // 落库
        // return productService.saveProduct("product_" + table,product);
        return "product_"+table;
    }
}
<think> 我们参考了引用[1]和[2]中的实现方法,利用秒级时间戳和Redis自增ID实现分布式全局ID。核心思想是将64位ID分为两部分:高32位为时间戳(秒级),低32位为Redis自增序列号。 ### 实现步骤 1. **时间戳部分(高32位)**: - 使用当前时间减去一个固定的起始时间(如2022-01-01 00:00:00)的秒数差值,作为时间戳部分。 - 例如:当前时间为2025-01-01 00:00:00,起始时间为2022-01-01 00:00:00,则时间戳差值为94694400秒(3年)。 2. **序列号部分(低32位)**: - 使用Redis的`INCR`命令生成自增序列号。为了确保每天重新开始计数,我们在Redis的key中加入日期(精确到天)。 - 例如:key为`icr:order:20250101`,表示2025年1月1日的订单ID序列。 3. **ID拼接**: - 将时间戳左移32位,然后与序列号进行按位或运算,得到最终的64位ID。 ### 代码实现(基于引用[1][2]优化) ```java @Component public class RedisIdGenerator { // 起始时间戳(2022-01-01 00:00:00 UTC) private static final long BEGIN_TIMESTAMP = 1640995200L; // 序列号占用位数(32位) private static final int COUNT_BITS = 32; private final StringRedisTemplate stringRedisTemplate; public RedisIdGenerator(StringRedisTemplate stringRedisTemplate) { this.stringRedisTemplate = stringRedisTemplate; } public long nextId(String keyPrefix) { // 1. 生成当前时间戳(秒级) LocalDateTime now = LocalDateTime.now(); long nowSecond = now.toEpochSecond(ZoneOffset.UTC); long timestamp = nowSecond - BEGIN_TIMESTAMP; // 2. 生成序列号(使用日期确保每天重置) String date = now.format(DateTimeFormatter.ofPattern("yyyy:MM:dd")); // Redis key格式:icr:{业务前缀}:{日期},例如 icr:order:2025:01:01 String redisKey = "icr:" + keyPrefix + ":" + date; long sequence = stringRedisTemplate.opsForValue().increment(redisKey); // 3. 拼接ID(时间戳左移32位后与序列号组合) return (timestamp << COUNT_BITS) | sequence; } } ``` ### 关键点解析 1. **时间戳选择**: - 使用秒级时间戳可支持约136年的时间范围(32位最大值为4294967295秒≈136年)[^1]。 - 起始时间`BEGIN_TIMESTAMP`可根据实际业务调整。 2. **Redis序列号管理**: - 序列号按天存储,每天自动重置(例如`icr:order:20250101`),避免序列号溢出问题[^2]。 - 单业务单日理论最大ID数为$2^{32}-1$(约42.9亿),满足绝大多数场景。 3. **并发性能**: - Redis的`INCR`命令是原子操作,确保分布式环境下序列号唯一[^5]。 - 实测性能:单Redis节点可支撑5万+/秒ID生成(引用[5]中200线程并发测试)。 ### 问题解决方案 1. **时间回拨问题**: - 若服务器时间被回调,可能导致ID重复。 - 解决方案:在Redis中记录最后一次生成ID的时间戳,每次生成时校验当前时间是否小于上次记录时间[^2]。示例: ```java String lastTimeKey = "last_timestamp:" + keyPrefix; Long lastTimestamp = stringRedisTemplate.opsForValue().get(lastTimeKey); if (lastTimestamp != null && nowSecond < lastTimestamp) { throw new IllegalStateException("时间回拨异常!"); } stringRedisTemplate.opsForValue().set(lastTimeKey, String.valueOf(nowSecond)); ``` 2. **单日ID超42亿**: - 当单日ID量超过42亿时,序列号会溢出(从0重新开始),导致ID重复。 - 解决方案: - 方案一:缩短时间粒度(如改用小时时间戳),将ID结构改为`28位小时差 + 36位序列号`。 - 方案二:扩展Redis序列号存储(使用`long`类型),并调整位运算为`(timestamp << 36) | (sequence & 0xFFFFFFFFFL)`[^3]。 ### 适用场景与限制 - **推荐场景**: - 电商订单系统(日均ID量<10亿)。 - 用户注册、日志追踪等需要趋势递增ID的业务。 - **不适用场景**: - 超高并发系统(如物联网设备接入,ID需求量>1万/秒),需改用更高性能方案(如雪花算法变体)。 - 严格单调递增场景(Redis序列号每日重置会导致ID不连续)。 > **对比雪花算法**:本方案无需分配workerId,但依赖Redis可用性。若Redis宕机,需启用备用ID生成器(如数据库自增ID)[^4]。 --- ### §§相关问题§§ 1. 如何验证生成的ID分布式环境下全局唯一? 2. 时间戳单位改为毫秒后如何避免序列号溢出? 3. Redis Cluster模式下如何保证自增序列的连续性? 4. 此方案在高并发场景下如何优化Redis性能? </think> ### 基于秒级时间戳和Redis自增ID分布式全局ID实现方案 #### 一、核心实现原理 1. **ID结构设计(64位)**: - **高32位**:秒级时间戳,存储从固定起始时间(如2022-01-01)到当前时间的秒数差值 - **低32位**:Redis生成的序列号,按日期分区确保每日重置 $$ \text{ID} = (\text{timestamp} \ll 32) \mid \text{sequence} $$ 2. **关键特性**: - **趋势递增**:时间戳保证ID随时间单调递增 - **全局唯一**:Redis的`INCR`命令原子性确保序列号不重复 - **每日重置**:序列号key包含日期(如`icr:order:20250101`),避免溢出[^1][^2] #### 二、完整实现代码(Java) ```java @Component public class RedisSecondsIdGenerator { // 起始时间戳(2022-01-01 00:00:00 UTC) private static final long BEGIN_TIMESTAMP = 1640995200L; // 序列号占用位数 private static final int COUNT_BITS = 32; private final StringRedisTemplate stringRedisTemplate; public RedisSecondsIdGenerator(StringRedisTemplate stringRedisTemplate) { this.stringRedisTemplate = stringRedisTemplate; } public long nextId(String businessKey) { // 1. 计算秒级时间戳差值 LocalDateTime now = LocalDateTime.now(); long currentSeconds = now.toEpochSecond(ZoneOffset.UTC); long timestamp = currentSeconds - BEGIN_TIMESTAMP; // 高32位[^1][^2] // 2. 生成日期分区序列号 String dateKey = now.format(DateTimeFormatter.ofPattern("yyyy:MM:dd")); String redisKey = "icr:" + businessKey + ":" + dateKey; Long sequence = stringRedisTemplate.opsForValue().increment(redisKey); // 低32位 // 3. 位运算组合ID return (timestamp << COUNT_BITS) | sequence; } } ``` #### 三、核心机制详解 1. **日期分区序列号**: - Redis Key格式:`icr:{业务前缀}:{日期}` - 示例:`icr:order:20250101`(2025年1月1日的订单ID序列) - 优势:天然避免序列号溢出,单日理论上限42亿ID 2. **时间戳处理**: - 使用秒级时间戳(非毫秒),支持更长时间跨度 - 时间范围计算: $$ \text{最大年限} = \frac{2^{32}}{365 \times 24 \times 3600} \approx 136 \text{年} $$ 3. **分布式保障**: - Redis的`INCR`命令是原子操作,多节点并发安全 - 业务键隔离(如`order`, `user`)支持多业务并行[^3] #### 四、关键问题解决方案 1. **时间回拨问题**: ```java // 在Redis存储最后有效时间戳 String lastTimeKey = "last_valid_time:" + businessKey; Long lastTimestamp = stringRedisTemplate.opsForValue().get(lastTimeKey); if (lastTimestamp != null && currentSeconds < Long.parseLong(lastTimestamp)) { throw new TimeReverseException("系统时间回拨异常"); } stringRedisTemplate.opsForValue().set(lastTimeKey, String.valueOf(currentSeconds)); ``` 2. **单日ID超42亿**: - 方案1:缩短时间粒度(改用小时时间戳) ```java // 改为小时分区:yyyy:MM:dd:HH String hourKey = now.format(DateTimeFormatter.ofPattern("yyyy:MM:dd:HH")); ``` - 方案2:扩展序列号位宽(需调整ID结构) ```java // 新结构:28位小时时间戳 + 36位序列号 return (hourTimestamp << 36) | (sequence & 0xFFFFFFFFFL); ``` 3. **Redis高可用**: | 方案 | 实现方式 | 适用场景 | |---------------------|----------------------------|--------------| | Redis Sentinel | 主从自动故障转移 | 高可用场景 | | Redis Cluster | 数据分片存储 | 超大规模系统 | | 多实例分片 | 按业务键哈希到不同实例 | 低成本方案[^5]| #### 五、性能优化建议 1. **连接池配置**: ```yaml # Spring Boot配置 spring.redis.lettuce.pool: max-active: 16 max-idle: 8 min-idle: 4 ``` 2. **批量预生成ID**: ```java // 一次性获取1000个ID public List<Long> batchNextId(String businessKey, int batchSize) { String redisKey = ... // 构建key Long endSeq = stringRedisTemplate.opsForValue() .increment(redisKey, batchSize); List<Long> ids = new ArrayList<>(); for (long seq = endSeq - batchSize + 1; seq <= endSeq; seq++) { ids.add((timestamp << COUNT_BITS) | seq); } return ids; } ``` 3. **本地缓存优化**: - 在应用层缓存100~1000个ID,减少Redis访问频次 - 使用双Buffer机制:一个Buffer消费时,另一个异步填充 > **性能基准**:单Redis节点可达5万+ ID/秒(引用[5]中200线程测试),时延<2ms[^5] --- ###
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

南宫拾壹

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值