日本免费高清视频-国产福利视频导航-黄色在线播放国产-天天操天天操天天操天天操|www.shdianci.com

學無先后,達者為師

網站首頁 編程語言 正文

Go+Redis實現延遲隊列實操_Golang

作者:jiaxwu??????? ? 更新時間: 2022-11-06 編程語言

前言

延遲隊列是一種非常使用的數據結構,我們經常有需要延遲推送處理消息的場景,比如延遲60秒發送短信,延遲30分鐘關閉訂單,消息消費失敗延遲重試等等。

一般我們實現延遲消息都需要依賴底層的有序結構,比如堆,而Redis剛好提供了zset這種數據類型,它的底層實現是哈希表+跳表,也是一種有序的結構,所以這篇文章主要是使用Go+Redis來實現延遲隊列。

當然Redis本身并不支持延遲隊列,所以我們只是實現一個比較簡單的延遲隊列,而且Redis不太適合大量消息堆積,所以只適合比較簡單的場景,如果需要更加強大穩定的消息隊列,可以使用RocketMQ等自帶延遲消息的消息隊列。

我們這里先定一下我們要實現的幾個目標:

  • 消息必須至少被消費一次
  • 多個生產者
  • 多個消費者

然后我們定義一個簡單的接口:

  • Push(msg) error:添加消息到隊列
  • Consume(topic, batchSize, func(msg) error):消費消息

簡單的實現

  • 每個主題最多可以被一個消費者消費,因為不會對主題進行分區
  • 但是可以多個生產者同時進行生產,因為Push操作是原子的
  • 同時需要消費操作返回值error為nil才刪除消息,保證消息至少被消費一次

定義消息

這個消息參考了Kafka的消息結構:

  • Topic可以是某個隊列的名字
  • Key是消息的唯一標識,在一個隊列里面不可以重復
  • Body是消息的內容
  • Delay是消息的延遲時間
  • ReadyTime是消息準備好執行的時間
// Msg 消息
type Msg struct {
   Topic     string        // 消息的主題
   Key       string        // 消息的Key
   Body      []byte        // 消息的Body
   Delay     time.Duration // 延遲時間(秒)
   ReadyTime time.Time     // 消息準備好執行的時間(now + delay)
}

Push

由于我們需要把消息的Body存儲到Hash,把消息的ReadyTime存儲到ZSet,所以我們需要一個簡單的Lua腳本來保證這兩個操作是原子的

同時我們不會覆蓋已經存在的相同Key的消息。

const delayQueuePushRedisScript = `
-- KEYS[1]: topicZSet
-- KEYS[2]: topicHash
-- ARGV[1]: 消息的Key
-- ARGV[2]: 消息的Body
-- ARGV[3]: 消息準備好執行的時間

local topicZSet = KEYS[1]
local topicHash = KEYS[2]
local key = ARGV[1]
local body = ARGV[2]
local readyTime = tonumber(ARGV[3])

-- 添加readyTime到zset
local count = redis.call("zadd", topicZSet, readyTime, key)
-- 消息已經存在
if count == 0 then 
   return 0
end
-- 添加body到hash
redis.call("hsetnx", topicHash, key, body)
return 1
`
func (q *SimpleRedisDelayQueue) Push(ctx context.Context, msg *Msg) error {
   // 如果設置了ReadyTime,就使用RedisTime
   var readyTime int64
   if !msg.ReadyTime.IsZero() {
      readyTime = msg.ReadyTime.Unix()
   } else {
      // 否則使用Delay
      readyTime = time.Now().Add(msg.Delay).Unix()
   }
   success, err := q.pushScript.Run(ctx, q.client, []string{q.topicZSet(msg.Topic), q.topicHash(msg.Topic)},
      msg.Key, msg.Body, readyTime).Bool()
   if err != nil {
      return err
   }
   if !success {
      return ErrDuplicateMessage
   }
   return nil
}

Consume

其中第二個參數batchSize表示用于批量獲取已經準備好執行的消息,減少網絡請求。

fn是對消息進行處理的函數,它有一個返回值error,如果是nil才表示消息消費成功,然后調用刪除腳本把成功消費的消息給刪除(需要原子的刪除ZSet和Hash里面的內容)。

const delayQueueDelRedisScript = `
-- KEYS[1]: topicZSet
-- KEYS[2]: topicHash
-- ARGV[1]: 消息的Key

local topicZSet = KEYS[1]
local topicHash = KEYS[2]
local key = ARGV[1]

-- 刪除zset和hash關于這條消息的內容
redis.call("zrem", topicZSet, key)
redis.call("hdel", topicHash, key)
return 1
`
func (q *SimpleRedisDelayQueue) Consume(topic string, batchSize int, fn func(msg *Msg) error) {
   for {
      // 批量獲取已經準備好執行的消息
      now := time.Now().Unix()
      zs, err := q.client.ZRangeByScoreWithScores(context.Background(), q.topicZSet(topic), &redis.ZRangeBy{
         Min:   "-inf",
         Max:   strconv.Itoa(int(now)),
         Count: int64(batchSize),
      }).Result()
      // 如果獲取出錯或者獲取不到消息,則休眠一秒
      if err != nil || len(zs) == 0 {
         time.Sleep(time.Second)
         continue
      }
      // 遍歷每個消息
      for _, z := range zs {
         key := z.Member.(string)
         // 獲取消息的body
         body, err := q.client.HGet(context.Background(), q.topicHash(topic), key).Bytes()
         if err != nil {
            continue
         }

         // 處理消息
         err = fn(&Msg{
            Topic:     topic,
            Key:       key,
            Body:      body,
            ReadyTime: time.Unix(int64(z.Score), 0),
         })
         if err != nil {
            continue
         }

         // 如果消息處理成功,刪除消息
         q.delScript.Run(context.Background(), q.client, []string{q.topicZSet(topic), q.topicHash(topic)}, key)
      }
   }
}

存在的問題

如果多個線程同時調用Consume函數,那么多個線程會拉取相同的可執行的消息,造成消息重復的被消費。

多消費者實現

  • 每個主題最多可以被分區個數個消費者消費,會對主題進行分區

定義消息

  • 我們添加了一個Partition字段表示消息的分區號
// Msg 消息
type Msg struct {
   Topic     string        // 消息的主題
   Key       string        // 消息的Key
   Body      []byte        // 消息的Body
   Partition int           // 分區號
   Delay     time.Duration // 延遲時間(秒)
   ReadyTime time.Time     // 消息準備好執行的時間
}

Push

代碼與SimpleRedisDelayQueue的Push相同,只是我們會使用Msg里面的Partition字段對主題進行分區。

func (q *PartitionRedisDelayQueue) topicZSet(topic string, partition int) string {
   return fmt.Sprintf("%s:%d:z", topic, partition)
}

func (q *PartitionRedisDelayQueue) topicHash(topic string, partition int) string {
   return fmt.Sprintf("%s:%d:h", topic, partition)
}

Consume

代碼與SimpleRedisDelayQueue的Consume相同,我們也只是對Consume多加了一個partition參數用于指定消費的分區。

func (q *PartitionRedisDelayQueue) Consume(topic string, batchSize, partition int, fn func(msg *Msg) error) {
    // ...
}

存在的問題

一個比較大的問題就是我們需要手動指定分區而不是自動分配分區,這個問題對于Push操作解決起來比較容易,可以通過哈希算法對Key進行哈希取模進行分區,比如murmur3。但是對于Consume就比較復雜,因為我們必須記錄哪個分區已經被消費者消費了。如果真的需要更加復雜的場景還是建議使用RocketMQKafka等消息隊列進行實現。

總結

  • 使用Redis的ZSet可以很容易的實現一個高性能消息隊列
  • 但是Redis的ZSet實現的消息隊列不適合大量消息堆積的場景,同時如果需要實現自動分區消費功能會比較復雜
  • 適合消息量不是很大,且不是很復雜的場景
  • 如果需要大量堆積消息和穩定的多消費者功能,可以使用自帶延遲消息的RocketMQ

原文鏈接:https://juejin.cn/post/7057119451954544677

欄目分類
最近更新