go + redis 实现简单的延迟队列

该博客介绍了如何在没有MQ等工具的环境下,利用Redis的ZSet和List数据结构实现一个简单的延迟队列。通过设置时间戳作为ZSet的分数,并定时检查过期元素,将它们转移到List作为消费队列。同时,采用Go语言实现了一个线程池来并发消费队列中的任务,确保高效执行。示例代码详细展示了数据结构的存储和操作流程。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  1. 用到的工具以及开发语言
    1. redis
    2. golang
  2. 背景
    1. redis实现的简单延迟队列,这个场景在工具丰富的公司的话一般使用mq代替了,但是说公司开发选型上没有搭建这些工具,需要实现的延迟队列并不复杂和数量量不大的情况下可以考虑这个实现方式
  3. 参考文章
    1. 有赞
    2. 本文参考的线程池实现
  4. 实现思路
    1. 在这里插入图片描述

    2. job pool是一个string类型的k/v形式,我们只需要把对应的key,value保存到redis中,value中包含了你想要存放的数据,这样我们在消费队列的时候可以获取到需要的信息,并且执行我们想要的操作

    3. delay bucket可以理解成一个不同主题(topic)的存储桶,我们用time.tick去定时查询这个库有没有过期的数据,有的话我们就拿出来放到ready queue中。

    4. delay bucket的形式这里定义成:

      score: 需要过期的时间戳,

      member: job id(可以通过这个找到job pool中的对应数据)

    5. timer每次扫描就用当前的时间戳去对比:

      1. zrange key min max withscores
    6. 扫描出来的数据我们进行ready queue队列中,这里我们使用的是list数据类型,按照我们插入的顺序排序嘛,因为都是过期的数据,所以就没有按照过期时间排序,每次消费的时候我们从头部获取一个消费

    7. 这里我们就要用到线程池就消费,channel通道就非常适合干这个

  5. 具体的代码

    1. redis操作部分:

      1. package test
        
        import (
        	"context"
        	"encoding/json"
        	"fmt"
        	redis2 "github.com/go-redis/redis/v8"
        	"github.com/google/uuid"
        	"strconv"
        	"sync"
        	"time"
        	"vue-chat/redis"
        )
        
        var (
        	JobPoolKey = "job_pool_key_"
        	BaseDelayBucketKey = "base_delay_bucket"
        	BaseReadyQueueKey = "base_ready_queue"
        	delayAddTime = 1
        )
        
        type RedisJobData struct {
        	Topic string
        	ID    string
        	Delay int
        	TTR   int
        	Body  *BodyContent
        }
        
        type BodyContent struct {
        	OrderID int
        	OrderName string
        }
        
        //组装数据
        func (d *RedisJobData)SetJobPool(number int,ctx context.Context) bool {
        	redisCoon := redis.GetRedisDb()
        	//r := rand.New(rand.NewSource(time.Now().Unix()))
        	for i := 0; i < number; i++ {
        		d.Topic = "order_queue"
        		d.ID = uuid.NewString()
        		d.Delay = 1
        		d.TTR = 3
        		d.Body = &BodyContent{
        			OrderID: i,
        			OrderName: "order_name_"+strconv.Itoa(i),
        		}
        		key := JobPoolKey + strconv.Itoa(i)
        		delayKey := strconv.Itoa(i)
        		data, _ := json.Marshal(d)
        		//写入job pool
        		_ ,err := redisCoon.Set(ctx, key, data,0 * time.Second).Result()
        		if err != nil {
        			fmt.Println("添加失败: ", err)
        			return  false
        		}
        		fmt.Println("添加成功: ", err)
        		nowTime := time.Now().Unix()
        
        		//delayTime := int(nowTime) + r.Intn(delayAddTime)
        		delayTime := int(nowTime) + delayAddTime
        		//写入delay queue
        		redisCoon.ZAdd(ctx, BaseDelayBucketKey,&redis2.Z{
        			Score: float64(delayTime),
        			Member: delayKey,
        		})
        		//为了可以更好的演示,这每个过期时间增加几秒,防止一次性消费了
        		if i % 10 == 0 && i > 0 {
        			delayAddTime += 10
        		}
        	}
        	return true
        }
        
        //定时timer.tick查询bucket中是否有过期的数据,如果有放入消费队列中
        func TimerDelayBucket(redisCoon *redis2.Client,ctx context.Context,pool *Pool, wg *sync.WaitGroup) error {
        	nowTime := time.Now().Unix()
        	result, err := redisCoon.ZRangeByScoreWithScores(ctx,BaseDelayBucketKey,&redis2.ZRangeBy{
        		Min: "-inf",
        		Max: strconv.FormatInt(nowTime,10),
        	}).Result()
        	if err == nil {
        		for _, z := range result {
        			//进入ready queue
        			redisCoon.LPush(ctx, BaseReadyQueueKey, z.Member)
        			//写入通道说明有数据了,可以进行消费
        			err := pool.Put(&Task{
        				Member: z.Member.(string),
        				Wg: wg,
        			})
        			if err != nil {
        				fmt.Println(err)
        			}
        			wg.Add(1)
        		}
        	}
        	return err
        	
        }
        
        //消费队列
        func ConsumeQueue(redisCoon *redis2.Client, ctx context.Context, wg *sync.WaitGroup) error {
        	defer wg.Done()
        	//先判断list中是否有数据,有数据才有必要执行,没有数据直接返回就好了
        	lenQueue, err:= redisCoon.LLen(ctx,BaseReadyQueueKey).Result()
        	if err != nil {
        		return err
        	}
        	if lenQueue == 0 {
        		return nil
        	}
        	result, err := redisCoon.LPop(ctx, BaseReadyQueueKey).Result()
        	if err != nil {
        		return err
        	}
        	fmt.Println("我消费了一个数据:", result)
        	//这里可以实现需要的操作,这里简单实现了删除操作
        	redisCoon.Del(ctx, JobPoolKey+result)
        	redisCoon.ZRem(ctx, BaseDelayBucketKey, result)
        	return nil
        }
        
        
    2. 线程池部分:

      1. package test
        
        import (
        	"context"
        	"errors"
        	"fmt"
        	"log"
        	"sync"
        	"sync/atomic"
        	"time"
        	"vue-chat/redis"
        )
        
        var (
        	// return if pool size
        	ErrInvalidPoolCap = errors.New("invalid pool cap")
        	// put task but pool already closed
        	ErrPoolAlreadyClosed = errors.New("pool already closed")
        )
        
        // running status
        const (
        	RUNNING = 1
        	STOPED = 0
        )
        
        //Task task to-do
        type Task struct {
        	//Handler func(v ...interface{})
        	//Params []interface{}
        	Member string
        	Wg *sync.WaitGroup
        }
        
        //Pool task pool
        type Pool struct {
        	capacity  	uint64
        	runningWorkers uint64
        	status      int64
        	chTask		chan *Task
        	PanicHandler func(interface{})
        	sync.Mutex
        }
        
        // NewPool init pool
        func NewPool(capacity uint64) (*Pool, error) {
        	if capacity <= 0 {
        		return nil, ErrInvalidPoolCap
        	}
        	p := &Pool{
        		capacity: capacity,
        		status: RUNNING,
        		chTask: make(chan *Task, capacity),
        	}
        	return p, nil
        }
        
        func (p *Pool) checkWorker()  {
        	p.Lock()
        	defer p.Unlock()
        	if p.runningWorkers == 0 && len(p.chTask) > 0 {
        		p.run()
        	}
        }
        
        //GetCap get capacity
        func (p *Pool) GetCap() uint64 {
        	return p.capacity
        }
        
        //GetRunningWorkers get running workers
        func (p *Pool) GetRunningWorkers() uint64 {
        	return atomic.LoadUint64(&p.runningWorkers)
        }
        
        func (p *Pool) incRunning()  {
        	atomic.AddUint64(&p.runningWorkers,1)
        }
        
        func (p *Pool) decRunning()  {
        	atomic.AddUint64(&p.runningWorkers, ^uint64(0))
        }
        
        //Put put a task to pool
        func (p *Pool) Put(task *Task) error {
        	p.Lock()
        	defer p.Unlock()
        	if p.status == STOPED {
        		return ErrPoolAlreadyClosed
        	}
        	//run workers
        	if p.GetRunningWorkers() < p.GetCap() {
        		p.run()
        	}
        	//send task
        	if p.status == RUNNING {
        		p.chTask <- task
        	}
        	return nil
        }
        
        func (p *Pool) run()  {
        	p.incRunning()
        	redisConn := redis.GetRedisDb()
        	conn := context.Background()
        	go func() {
        		defer func() {
        			p.decRunning()
        			if r := recover(); r != nil {
        				if p.PanicHandler != nil {
        					p.PanicHandler(r)
        				}else {
        					log.Printf("Worker panic: %s\n", r)
        				}
        			}
        			p.checkWorker()  //check worker avoid no worker running
        		}()
        
        		for{
        			select {
        			case task, ok := <-p.chTask:
        				if !ok {
        					return
        				}
        				//task.Handler(task.Params...)
        				fmt.Println(task.Member)
        				err := ConsumeQueue(redisConn,conn,task.Wg)
        				if err != nil {
        					fmt.Println("消费队列发生错误:", err)
        					return
        				}
        			}
        		}
        	}()
        }
        
        func (p *Pool) setStatus(status int64) bool {
        	p.Lock()
        	defer p.Unlock()
        	if p.status == status {
        		return false
        	}
        	p.status = status
        	return true
        }
        
        //Close close pool graceful
        func (p *Pool) Close()  {
        	if !p.setStatus(STOPED) {
        		//stop put task
        		return
        	}
        	for len(p.chTask) > 0 {
        		//wait all task be consumed
        		time.Sleep(1e6)	//reduce cpu load
        	}
        	close(p.chTask)
        }
        
    3. 测试:

      1. package test
        func TestConsuming(t *testing.T)  {
        	var data RedisJobData
        	redisConn := redis.GetRedisDb()
        	conn := context.Background()
        	data.SetJobPool(1000, conn)
        	pool, err := NewPool(20)
        	if err != nil {
        		panic(err)
        	}
        	wg := new(sync.WaitGroup)
        
        	c := time.Tick(1 * time.Second)
        
        	for next := range c {
        		fmt.Println("我在执行了")
        		err := TimerDelayBucket(redisConn, conn, pool, wg)
        		if err != nil {
        			fmt.Println("定时timer发生错误:", next, err)
        		}
        	}
        	wg.Wait()
        
        	pool.Close()
        }
        
    4. redis连接部分的话自己实现就好了哈

      1. package redis
        
        import (
        	"context"
        	"github.com/go-redis/redis/v8"
        	"github.com/sirupsen/logrus"
        	"time"
        	"vue-chat/config"
        )
        
        var rdb *redis.Client
        
        func init() {
        	addr := "you redis addr"
        	port := "you redis port"
        	password := "you redis auth password"
        
        	rdb = redis.NewClient(&redis.Options{
        		Addr: addr + ":" + port,
        		Password: password,
        		DB: 0,
        		PoolSize: 100,
        	})
        	ctx, cancel := context.WithTimeout(context.Background(), 5*time.Second)
        	defer cancel()
        
        	_, err := rdb.Ping(ctx).Result()
        	if err != nil {
        		logrus.Error("redis ping err:", err)
        		panic("redis连接失败:"+err.Error())
        	}
        }
        
        func GetRedisDb() *redis.Client {
        	return rdb
        }
        
03-26
### 逆向工程反编译概述 逆向工程是一种通过对软件的目标代码进行分析,将其转化为更高级别的表示形式的过程。这一过程通常用于研究现有系统的内部结构、功能以及实现细节。在Java和Android领域,反编译工具被广泛应用于逆向工程中。 #### Java逆向工程中的Jad反编译工具 Jad是一款经典Java反编译工具,能够将`.class`字节码文件转换为可读的`.java`源代码[^1]。虽然它可能无法完全恢复原始源代码,但它提供了足够的信息来帮助开发者理解已编译的Java程序逻辑。Jad支持多种反编译模式,并允许用户自定义规则以适应不同的需求。此外,其命令行接口和图形界面使得复杂代码的分析变得更加便捷。 #### Android逆向工程中的JEB反编译工具 针对Android应用的逆向工程,JEB是由PNF Software开发的一款专业级工具[^2]。相较于其他同类产品,JEB不仅具备强大的APK文件反编译能力,还能对Dalvik字节码执行高效而精准的操作。它的核心优势在于以下几个方面: - **广泛的平台兼容性**:除Android外,还支持ARM、MIPS等多种架构的二进制文件反汇编。 - **混淆代码解析**:内置模块能有效应对高度混淆的代码,提供分层重构机制以便于深入分析。 - **API集成支持**:允许通过编写Python或Java脚本来扩展功能并完成特定任务。 #### APK反编译流程及其意义 当涉及到具体的APK包时,可以通过一系列步骤提取其中的信息来进行全面的安全评估或者学习目的的研究工作[^3]。这些步骤一般包括但不限于获取资产目录(`assets`)内的资源数据;解密XML配置文档如`AndroidManifest.xml`定位应用程序启动点;最后利用上述提到的各种专用软件重现整个项目框架供进一步探讨。 ```bash # 使用apktool反编译APK示例 apktool d your_app.apk -o output_directory/ ``` 以上命令展示了如何借助开源工具ApkTool轻松拆卸目标安卓档案至易于探索的状态下。 ### 结论 无论是传统的桌面端还是现代移动端环境里头,恰当运用合适的反编译解决方案都是达成逆向工程项目成功不可或缺的一环。每种工具有各自专精之处,在实际应用场景当中应当依据具体需求做出明智的选择。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值