Young Kbt blog Young Kbt blog
首页
  • java基础

    • Java基础
    • Java集合
    • Java反射
    • JavaJUC
    • JavaJVM
  • Java容器

    • JavaWeb
  • Java版本新特性

    • Java新特性
  • SQL 数据库

    • MySQL
    • Oracle
  • NoSQL 数据库

    • Redis
    • ElasticSearch
  • 数据库

    • MyBatis
    • MyBatis-Plus
  • 消息中间件

    • ActiveMQ
    • RabbitMQ
    • RocketMQ
    • Kafka
  • 进阶服务

    • Nginx
  • Spring
  • Spring Boot
  • Spring Security
  • 设计模式
  • 算法
  • 知识
  • 管理

    • Maven
    • Git
  • 部署

    • Linux
    • Docker
    • Jenkins
    • Kubernetes
  • 进阶

    • TypeScript
  • 框架

    • React
    • Vue2
    • Vue3
  • 轮子工具
  • 项目工程
  • 友情链接
  • 本站

    • 分类
    • 标签
    • 归档
  • 我的

    • 收藏
    • 关于
    • Vue2-Admin (opens new window)
    • Vue3-Admin(完善) (opens new window)
GitHub (opens new window)

Shp Liu

朝圣的使徒,正在走向编程的至高殿堂!
首页
  • java基础

    • Java基础
    • Java集合
    • Java反射
    • JavaJUC
    • JavaJVM
  • Java容器

    • JavaWeb
  • Java版本新特性

    • Java新特性
  • SQL 数据库

    • MySQL
    • Oracle
  • NoSQL 数据库

    • Redis
    • ElasticSearch
  • 数据库

    • MyBatis
    • MyBatis-Plus
  • 消息中间件

    • ActiveMQ
    • RabbitMQ
    • RocketMQ
    • Kafka
  • 进阶服务

    • Nginx
  • Spring
  • Spring Boot
  • Spring Security
  • 设计模式
  • 算法
  • 知识
  • 管理

    • Maven
    • Git
  • 部署

    • Linux
    • Docker
    • Jenkins
    • Kubernetes
  • 进阶

    • TypeScript
  • 框架

    • React
    • Vue2
    • Vue3
  • 轮子工具
  • 项目工程
  • 友情链接
  • 本站

    • 分类
    • 标签
    • 归档
  • 我的

    • 收藏
    • 关于
    • Vue2-Admin (opens new window)
    • Vue3-Admin(完善) (opens new window)
GitHub (opens new window)
  • 技术随笔 - 秒杀系统设计

    • 瞬时高并发
      • 页面静态化
        • 秒杀按钮
          • 读多写少
            • 缓存问题
              • 缓存击穿
              • 缓存穿透
            • 库存问题
              • 数据库扣减库存
              • Redis 扣减库存
              • lua 脚本扣减库存
            • Redis 集群崩溃
              • 分布式锁
                • setNx 加锁
                • set 加锁
                • 释放锁
                • 自旋锁
                • Redisson
              • MQ 异步处理
                • 消息丢失问题
                • 重复消费问题
                • 垃圾消息问题
                • 延迟消费问题
              • 如何限流
                • 对同一用户限流
                • 对同一 IP 限流
                • 对接口限流
                • 加验证码
                • 提高业务门槛
              • 参考
              Young Kbt
              2023-09-24
              技术随笔
              目录

              技术随笔 - 秒杀系统设计

              • 瞬时高并发
              • 页面静态化
              • 秒杀按钮
              • 读多写少
              • 缓存问题
                • 缓存击穿
                • 缓存穿透
              • 库存问题
                • 数据库扣减库存
                • Redis 扣减库存
                • lua 脚本扣减库存
              • Redis 集群崩溃
              • 分布式锁
                • setNx 加锁
                • set 加锁
                • 释放锁
                • 自旋锁
                • Redisson
              • MQ 异步处理
                • 消息丢失问题
                • 重复消费问题
                • 垃圾消息问题
                • 延迟消费问题
              • 如何限流
                • 对同一用户限流
                • 对同一 IP 限流
                • 对接口限流
                • 加验证码
                • 提高业务门槛
              • 参考

              高并发下如何设计秒杀系统?这是一个高频面试题。这个问题看似简单,但是里面的水很深,它考查的是高并发场景下,从前端到后端多方面的知识。

              秒杀一般出现在商城的 促销活动 中,指定了一定数量(比如:10 个)的商品(比如:手机),以极低的价格(比如:0.1 元),让大量用户参与活动,但只有极少数用户能够购买成功。这类活动商家绝大部分是不赚钱的,说白了是找个噱头宣传自己。

              虽说秒杀只是一个促销活动,但对技术要求不低。下面给大家总结一下设计秒杀系统需要注意的 9 个细节。

              # 瞬时高并发

              一般在 秒杀时间点(比如:12 点)前几分钟,用户并发量才真正突增,达到秒杀时间点时,并发量会达到顶峰。

              但由于这类活动是大量用户抢少量商品的场景,必定会出现 狼多肉少 的情况,所以其实绝大部分用户秒杀会失败,只有极少部分用户能够成功。

              正常情况下,大部分用户会收到商品已经抢完的提醒,收到该提醒后,他们大概率不会在那个活动页面停留了,如此一来,用户并发量又会急剧下降。所以这个峰值持续的时间其实是非常短的,这样就会出现瞬时高并发的情况。下面用一张图直观的感受一下流量的变化:

              图片

              像这种瞬时高并发的场景,传统的系统很难应对,我们需要设计一套全新的系统。可以从以下几个方面入手:

              1. 页面静态化
              2. CDN 加速
              3. 缓存
              4. MQ 异步处理
              5. 限流
              6. 分布式锁

              # 页面静态化

              活动页面是用户流量的第一入口,所以是并发量最大的地方。

              如果这些流量都能直接访问服务端,恐怕服务端会因为承受不住这么大的压力,而直接挂掉。

              图片

              活动页面绝大多数内容是固定的,比如:商品名称、商品描述、图片等。为了减少不必要的服务端请求,通常情况下,会对活动页面做 静态化 处理。用户浏览商品等常规操作,并不会请求到服务端。只有到了秒杀时间点,并且用户主动点了秒杀按钮才允许访问服务端。

              图片

              这样能过滤大部分无效请求。

              但只做页面静态化还不够,因为用户分布在全国各地,有些人在北京,有些人在成都,有些人在深圳,地域相差很远,网速各不相同。

              如何才能让用户最快访问到活动页面呢?

              这就需要使用 CDN,它的全称是 Content Delivery Network,即内容分发网络。

              图片

              使用户就近获取所需内容,降低网络拥塞,提高用户访问响应速度和命中率。

              # 秒杀按钮

              大部分用户怕错过 秒杀时间点,一般会提前进入活动页面。此时看到的 秒杀按钮 是置灰,不可点击的。只有到了秒杀时间点那一时刻,秒杀按钮才会自动点亮,变成可点击的。

              但此时很多用户已经迫不及待了,通过不停刷新页面,争取在第一时间看到秒杀按钮的点亮。

              从前面得知,该活动页面是静态的。那么我们在静态页面中如何控制秒杀按钮,只在秒杀时间点时才点亮呢?

              没错,使用 js 文件控制。

              为了性能考虑,一般会将 css、js 和图片等静态资源文件提前缓存到CDN上,让用户能够就近访问秒杀页面。

              看到这里,有些聪明的小伙伴,可能会问:CDN 上的 js 文件是如何更新的?

              秒杀开始之前,js 标志为 false,还有另外一个随机参数。

              图片

              当秒杀开始的时候系统会生成一个新的 js 文件,此时标志为 true,并且随机参数生成一个新值,然后同步给 CDN。由于有了这个随机参数,CDN 不会缓存数据,每次都能从 CDN 中获取最新的 js 代码。

              图片

              此外,前端还可以加一个定时器,控制比如:10 秒之内,只允许发起一次请求。如果用户点击了一次秒杀按钮,则在 10 秒之内置灰,不允许再次点击,等到过了时间限制,又允许重新点击该按钮。

              # 读多写少

              在秒杀的过程中,系统一般会先查一下库存是否足够,如果足够才允许下单,写数据库。如果不够,则直接返回该商品已经抢完。

              由于大量用户抢少量商品,只有极少部分用户能够抢成功,所以绝大部分用户在秒杀时,库存其实是不足的,系统会直接返回该商品已经抢完。

              这是非常典型的:读多写少 的场景。

              图片

              如果有数十万的请求过来,同时通过数据库查缓存是否足够,此时数据库可能会挂掉。因为数据库的连接资源非常有限,比如:mysql,无法同时支持这么多的连接。

              而应该改用缓存,比如:Redis。

              即便用了 Redis,也需要部署多个节点。

              图片

              # 缓存问题

              通常情况下,我们需要在 Redis 中保存商品信息,里面包含:商品 id、商品名称、规格属性、库存等信息,同时数据库中也要有相关信息,毕竟缓存并不完全可靠。

              用户在点击秒杀按钮,请求秒杀接口的过程中,需要传入的商品 id 参数,然后服务端需要校验该商品是否合法。

              大致流程如下图所示:

              图片

              根据商品 id,先从缓存中查询商品,如果商品存在,则参与秒杀。如果不存在,则需要从数据库中查询商品,如果存在,则将商品信息放入缓存,然后参与秒杀。如果商品不存在,则直接提示失败。

              这个过程表面上看起来是 OK 的,但是如果深入分析一下会发现一些问题。

              # 缓存击穿

              比如商品 A 第一次秒杀时,缓存中是没有数据的,但数据库中有。虽说上面有如果从数据库中查到数据,则放入缓存的逻辑。

              然而,在高并发下,同一时刻会有大量的请求,都在秒杀同一件商品,这些请求同时去查缓存中没有数据,然后又同时访问数据库。结果悲剧了,数据库可能扛不住压力,直接挂掉。

              如何解决这个问题呢?

              这就需要加锁,最好使用分布式锁。

              图片

              当然,针对这种情况,最好在项目启动之前,先把缓存进行 预热。即事先把所有的商品,同步到缓存中,这样商品基本都能直接从缓存中获取到,就不会出现缓存击穿的问题了。

              是不是上面加锁这一步可以不需要了?

              表面上看起来,确实可以不需要。但如果缓存中设置的过期时间不对,缓存提前过期了,或者缓存被不小心删除了,如果不加速同样可能出现缓存击穿。

              其实这里加锁,相当于买了一份保险。

              # 缓存穿透

              如果有大量的请求传入的商品id,在缓存中和数据库中都不存在,这些请求不就每次都会穿透过缓存,而直接访问数据库了。

              由于前面已经加了锁,所以即使这里的并发量很大,也不会导致数据库直接挂掉。

              但很显然这些请求的处理性能并不好,有没有更好的解决方案?

              这时可以想到 布隆过滤器。

              图片

              系统根据商品 id,先从布隆过滤器中查询该 id 是否存在,如果存在则允许从缓存中查询数据,如果不存在,则直接返回失败。

              虽说该方案可以解决缓存穿透问题,但是又会引出另外一个问题:布隆过滤器中的数据如何更缓存中的数据保持一致?

              这就要求,如果缓存中数据有更新,则要及时同步到布隆过滤器中。如果数据同步失败了,还需要增加重试机制,而且跨数据源,能保证数据的实时一致性吗?

              显然是不行的。

              所以布隆过滤器绝大部分使用在缓存数据更新很少的场景中。

              如果缓存数据更新非常频繁,又该如何处理呢?

              这时,就需要把不存在的商品 id 也缓存起来。

              图片

              下次,再有该商品 id 的请求过来,则也能从缓存中查到数据,只不过该数据比较特殊,表示商品不存在。需要特别注意的是,这种特殊缓存设置的超时时间应该尽量短一点。

              # 库存问题

              对于库存问题看似简单,实则里面还是有些东西。

              真正的秒杀商品的场景,不是说扣完库存,就完事了,如果用户在一段时间内,还没完成支付,扣减的库存是要加回去的。

              所以,在这里引出了一个 预扣库存 的概念,预扣库存的主要流程如下:

              图片

              扣减库存中除了上面说到的 预扣库存 和 回退库存 之外,还需要特别注意的是库存不足和库存超卖问题。

              # 数据库扣减库存

              使用数据库扣减库存,是最简单的实现方案了,假设扣减库存的 sql 如下:

              update product set stock=stock-1 where id=123;
              
              1

              这种写法对于扣减库存是没有问题的,但如何控制库存不足的情况下,不让用户操作呢?

              这就需要在 update 之前,先查一下库存是否足够了。

              伪代码如下:

              int stock = mapper.getStockById(123);
              if(stock > 0) {
                int count = mapper.updateStock(123);
                if(count > 0) {
                  addOrder(123);
                }
              }
              
              1
              2
              3
              4
              5
              6
              7

              大家有没有发现这段代码的问题?

              没错,查询操作和更新操作不是原子性的,会导致在并发的场景下,出现库存超卖的情况。

              有人可能会说,这样好办,加把锁,不就搞定了,比如使用 synchronized 关键字。

              确实,可以,但是性能不够好。

              还有更优雅的处理方案,即基于数据库的乐观锁,这样会少一次数据库查询,而且能够天然的保证数据操作的原子性。

              只需将上面的 sql 稍微调整一下:

              update product set stock=stock-1 where id=product and stock > 0;
              
              1

              在 sql 最后加上:stock > 0,就能保证不会出现超卖的情况。

              但需要频繁访问数据库,我们都知道数据库连接是非常昂贵的资源。在高并发的场景下,可能会造成系统雪崩。而且,容易出现多个请求,同时竞争行锁的情况,造成相互等待,从而出现死锁的问题。

              # Redis 扣减库存

              Redis的 incr 方法是原子性的,可以用该方法扣减库存。伪代码如下:

              boolean exist = RedisClient.query(productId,userId);
              if(exist) {
                return -1;
              }
              int stock = RedisClient.queryStock(productId);
              if(stock <=0) {
                return 0;
              }
              RedisClient.incrby(productId, -1);
              RedisClient.add(productId,userId);
              return 1;
              
              1
              2
              3
              4
              5
              6
              7
              8
              9
              10
              11

              代码流程如下:

              1. 先判断该用户有没有秒杀过该商品,如果已经秒杀过,则直接返回 -1
              2. 查询库存,如果库存小于等于 0,则直接返回 0,表示库存不足
              3. 如果库存充足,则扣减库存,然后将本次秒杀记录保存起来。然后返回 1,表示成功

              估计很多小伙伴,一开始都会按这样的思路写代码。但如果仔细想想会发现,这段代码有问题

              有什么问题呢?

              如果在高并发下,有多个请求同时查询库存,当时都大于 0。由于查询库存和更新库存非原则操作,则会出现库存为负数的情况,即 库存超卖。

              当然有人可能会说,加个 synchronized 不就解决问题?

              调整后代码如下:

              boolean exist = RedisClient.query(productId,userId);
              if(exist) {
                return -1;
              }
              synchronized(this) {
                int stock = RedisClient.queryStock(productId);
                if(stock <=0) {
                  return 0;
                }
                RedisClient.incrby(productId, -1);
                RedisClient.add(productId,userId);
              }
              
              return 1;
              
              1
              2
              3
              4
              5
              6
              7
              8
              9
              10
              11
              12
              13
              14

              加 synchronized 确实能解决库存为负数问题,但是这样会导致接口性能急剧下降,每次查询都需要竞争同一把锁,显然不太合理。

              为了解决上面的问题,代码优化如下:

              boolean exist = RedisClient.query(productId,userId);
              if(exist) {
                return -1;
              }
              if(RedisClient.incrby(productId, -1)<0) {
                return 0;
              }
              RedisClient.add(productId,userId);
              return 1;
              
              1
              2
              3
              4
              5
              6
              7
              8
              9

              该代码主要流程如下:

              1. 先判断该用户有没有秒杀过该商品,如果已经秒杀过,则直接返回 -1
              2. 扣减库存,判断返回值是否小于 0,如果小于 0,则直接返回0,表示库存不足
              3. 如果扣减库存后,返回值大于或等于 0,则将本次秒杀记录保存起来。然后返回1,表示成功

              该方案咋一看,好像没问题。

              但如果在高并发场景中,有多个请求同时扣减库存,大多数请求的 incrby 操作之后,结果都会小于 0。

              虽说,库存出现负数,不会出现 超卖的问题。但由于这里是预减库存,如果负数值负的太多的话,后面万一要回退库存时,就会导致库存不准。

              那么,有没有更好的方案呢?

              # lua 脚本扣减库存

              我们都知道 lua 脚本,是能够保证原子性的,它跟 Redis 一起配合使用,能够完美解决上面的问题。

              lua 脚本有段非常经典的代码:

              StringBuilder lua = new StringBuilder();
              lua.append("if (Redis.call('exists', KEYS[1]) == 1) then");
              lua.append("    local stock = tonumber(Redis.call('get', KEYS[1]));");
              lua.append("    if (stock == -1) then");
              lua.append("        return 1;");
              lua.append("    end;");
              lua.append("    if (stock > 0) then");
              lua.append("        Redis.call('incrby', KEYS[1], -1);");
              lua.append("        return stock;");
              lua.append("    end;");
              lua.append("    return 0;");
              lua.append("end;");
              lua.append("return -1;");
              
              1
              2
              3
              4
              5
              6
              7
              8
              9
              10
              11
              12
              13

              该代码的主要流程如下:

              1. 先判断商品 id 是否存在,如果不存在则直接返回
              2. 获取该商品 id 的库存,判断库存如果是 -1,则直接返回,表示不限制库存
              3. 如果库存大于 0,则扣减库存
              4. 如果库存等于 0,是直接返回,表示库存不足

              # Redis 集群崩溃

              如果秒杀过程 Redis 崩溃了,那么如何处理呢?

              如果 Redis 崩溃了,可以在一定时间内恢复,那么我们可以将用户的秒杀信息暂时存储到本地服务器缓存,然后启动一个线程不断去和 Redis 集群重试连接,如果成功了,那么就将本地缓存的秒杀信息存储 Redis。(可能存在超卖问题)。

              如果 Redis 一直无法恢复,那么我们可以将预先准备的备份 Redis 集群拿来顶替。

              # 分布式锁

              之前我提到过,在秒杀的时候,需要先从缓存中查商品是否存在,如果不存在,则会从数据库中查商品。如果数据库中,则将该商品放入缓存中,然后返回。如果数据库中没有,则直接返回失败。

              大家试想一下,如果在高并发下,有大量的请求都去查一个缓存中不存在的商品,这些请求都会直接打到数据库。数据库由于承受不住压力,而直接挂掉。

              那么如何解决这个问题呢?

              这就需要用 Redis 分布式锁了。

              # setNx 加锁

              使用 Redis 的分布式锁,首先想到的是 setNx 命令。

              if (jedis.setnx(lockKey, val) == 1) {
                 jedis.expire(lockKey, timeout);
              }
              
              1
              2
              3

              用该命令其实可以加锁,但和后面的设置超时时间是分开的,并非原子操作。

              假如加锁成功了,但是设置超时时间失败了,该 lockKey 就变成永不失效的了。在高并发场景中,该问题会导致非常严重的后果。

              那么,有没有保证原子性的加锁命令呢?

              # set 加锁

              使用 Redis 的 set 命令,它可以指定多个参数。

              String result = jedis.set(lockKey, requestId, "NX", "PX", expireTime);
              if ("OK".equals(result)) {
                  return true;
              }
              return false;
              
              1
              2
              3
              4
              5

              其中:

              • lockKey:锁的标识
              • requestId:请求 id
              • NX:只在键不存在时,才对键进行设置操作
              • PX:设置键的过期时间为 millisecond 毫秒
              • expireTime:过期时间

              由于该命令只有一步,所以它是原子操作。

              # 释放锁

              接下来,有些朋友可能会问:在加锁时,既然已经有了 lockKey 锁标识,为什么要需要记录 requestId 呢?

              答:requestId 是在释放锁的时候用的。

              if (jedis.get(lockKey).equals(requestId)) {
                  jedis.del(lockKey);
                  return true;
              }
              return false;
              
              1
              2
              3
              4
              5

              在释放锁的时候,只能释放自己加的锁,不允许释放别人加的锁。

              这里为什么要用 requestId,用 userId 不行吗?

              答:如果用 userId 的话,假设本次请求流程走完了,准备删除锁。此时,巧合锁到了过期时间失效了。而另外一个请求,巧合使用的相同 userId 加锁,会成功。而本次请求删除锁的时候,删除的其实是别人的锁了。

              当然使用 lua 脚本也能避免该问题:

              if Redis.call('get', KEYS[1]) == ARGV[1] then 
                return Redis.call('del', KEYS[1]) 
              else 
                return 0 
              end
              
              1
              2
              3
              4
              5

              它能保证查询锁是否存在和删除锁是原子操作。

              # 自旋锁

              上面的加锁方法看起来好像没有问题,但如果你仔细想想,如果有 1 万的请求同时去竞争那把锁,可能只有一个请求是成功的,其余的 9999 个请求都会失败。

              在秒杀场景下,会有什么问题?

              答:每 1 万个请求,有 1 个成功。再 1 万个请求,有 1 个成功。如此下去,直到库存不足。这就变成均匀分布的秒杀了,跟我们想象中的不一样。

              如何解决这个问题呢?

              答:使用自旋锁。

              try {
                Long start = System.currentTimeMillis();
                while(true) {
                    String result = jedis.set(lockKey, requestId, "NX", "PX", expireTime);
                   if ("OK".equals(result)) {
                      return true;
                   }
                   
                   long time = System.currentTimeMillis() - start;
                    if (time>=timeout) {
                        return false;
                    }
                    try {
                        Thread.sleep(50);
                    } catch (InterruptedException e) {
                        e.printStackTrace();
                    }
                }
               
              } finally{
                  unlock(lockKey,requestId);
              }  
              return false;
              
              1
              2
              3
              4
              5
              6
              7
              8
              9
              10
              11
              12
              13
              14
              15
              16
              17
              18
              19
              20
              21
              22
              23

              在规定的时间,比如 500 毫秒内,自旋不断尝试加锁,如果成功则直接返回。如果失败,则休眠 50 毫秒,再发起新一轮的尝试。如果到了超时时间,还未加锁成功,则直接返回失败。

              # Redisson

              除了上面的问题之外,使用 Redis 分布式锁,还有锁竞争问题、续期问题、锁重入问题、多个 Redis 实例加锁问题等。

              这些问题使用 Redisson 可以解决,目前也是流行的一种分布式锁框架。

              # MQ 异步处理

              我们都知道在真实的秒杀场景中,有三个核心流程:

              图片

              而这三个核心流程中,真正并发量大的是秒杀功能,下单和支付功能实际并发量很小。所以,我们在设计秒杀系统时,有必要把下单和支付功能从秒杀的主流程中拆分出来,特别是下单功能要做成mq异步处理的。而支付功能,比如支付宝支付,是业务场景本身保证的异步。

              于是,秒杀后下单的流程变成如下:

              图片

              如果使用 MQ,需要关注以下几个问题:

              # 消息丢失问题

              秒杀成功了,往 MQ 发送下单消息的时候,有可能会失败。原因有很多,比如:网络问题、Broker 挂了、MQ 服务端磁盘问题等。这些情况,都可能会造成消息丢失。

              那么,如何防止消息丢失呢?

              方法一

              答:加一张消息发送表。

              图片

              在生产者发送 MQ 消息之前,先把该条消息写入消息发送表,初始状态是待处理,然后再发送 MQ 消息。消费者消费消息时,处理完业务逻辑之后,再回调生产者的一个接口,修改消息状态为已处理。

              如果生产者把消息写入消息发送表之后,再发送 MQ 消息到 MQ 服务端的过程中失败了,造成了消息丢失。

              这时候,要如何处理呢?

              答:使用 job,增加重试机制。

              图片

              用 job 每隔一段时间去查询消息发送表中状态为待处理的数据,然后重新发送 MQ 消息。

              方法 2

              利用 MQ 的 ACK 机制,如果消息没有发到 MQ,则 MQ 会告诉生产者接收失败,这时候可以重新发送或者进行其他的业务处理。

              # 重复消费问题

              本来消费者消费消息时,在 ACK 应答的时候,如果网络超时,本身就可能会消费重复的消息。但由于消息发送者增加了重试机制,会导致消费者重复消息的概率增大。

              那么,如何解决重复消息问题呢?

              方法 1

              答:加一张消息处理表。

              图片

              消费者读到消息之后,先判断一下消息处理表,是否存在该消息,如果存在,表示是重复消费,则直接返回。如果不存在,则进行下单操作,接着将该消息写入消息处理表中,再返回。

              有个比较关键的点是:下单和写消息处理表,要放在同一个事务中,保证原子操作。

              方法 2

              发送到 MQ 前,根据当前秒杀商品生成一个订单 ID 一起发送给 MQ,消费者消费消息前,先判断是否消费过该订单 ID 来决定是否消费,如果没有消费,则消费,并且将消费的订单 ID 进行数据库存储,以便后续消费的重复判断。

              如果业务要求不能生成订单 ID 发送到 MQ,则可以利用 MQ 的消息 ID(MQ 里的消息都有一个唯一的标识 ID,重复发送相同的消息也只有一个该消息 ID 生成)来进行消费判断。

              消费者也可以利用一些自定义的规则,如秒杀商品 ID + 用户 ID + 秒杀活动 ID 作为唯一的消费 ID 来进行消费判断。

              # 垃圾消息问题

              这套方案表面上看起来没有问题,但如果出现了消息消费失败的情况。比如:由于某些原因,消息消费者下单一直失败,一直不能回调状态变更接口,这样 job 会不停的重试发消息。最后,会产生大量的垃圾消息。

              那么,如何解决这个问题呢?

              图片

              每次在 job 重试时,需要先判断一下消息发送表中该消息的发送次数是否达到最大限制,如果达到了,则直接返回。如果没有达到,则将次数加 1,然后发送消息。

              这样如果出现异常,只会产生少量的垃圾消息,不会影响到正常的业务。

              # 延迟消费问题

              通常情况下,如果用户秒杀成功了,下单之后,在 15 分钟之内还未完成支付的话,该订单会被自动取消,回退库存。

              那么,在 15 分钟内未完成支付,订单被自动取消的功能,要如何实现呢?

              我们首先想到的可能是 job,因为它比较简单。

              但 job 有个问题,需要每隔一段时间处理一次,实时性不太好。

              还有更好的方案?

              答:使用延迟队列。

              我们都知道 Rocketmq,自带了延迟队列的功能。

              图片

              下单时消息生产者会先生成订单,此时状态为待支付,然后会向延迟队列中发一条消息。达到了延迟时间,消息消费者读取消息之后,会查询该订单的状态是否为待支付。如果是待支付状态,则会更新订单状态为取消状态。如果不是待支付状态,说明该订单已经支付过了,则直接返回。

              还有个关键点,用户完成支付之后,会修改订单状态为已支付。

              图片

              # 如何限流

              通过秒杀活动,如果我们运气爆棚,可能会用非常低的价格买到不错的商品(这种概率堪比买福利彩票中大奖)。

              但有些高手,并不会像我们一样老老实实,通过秒杀页面点击秒杀按钮,抢购商品。他们可能在自己的服务器上,模拟正常用户登录系统,跳过秒杀页面,直接调用秒杀接口。

              如果是我们手动操作,一般情况下,一秒钟只能点击一次秒杀按钮。

              图片

              但是如果是服务器,一秒钟可以请求成上千接口。

              图片

              这种差距实在太明显了,如果不做任何限制,绝大部分商品可能是被机器抢到,而非正常的用户,有点不太公平。

              所以,我们有必要识别这些非法请求,做一些限制。那么,我们该如何现在这些非法请求呢?

              目前有两种常用的限流方式:

              1. 基于 Nginx 限流
              2. 基于 Redis 限流

              # 对同一用户限流

              为了防止某个用户,请求接口次数过于频繁,可以只针对该用户做限制。

              图片

              限制同一个用户 id,比如每分钟只能请求 5 次接口。

              # 对同一 IP 限流

              有时候只对某个用户限流是不够的,有些高手可以模拟多个用户请求,这种 Nginx 就没法识别了。

              这时需要加同一 IP 限流功能。

              图片

              限制同一个 IP,比如每分钟只能请求 5 次接口。

              但这种限流方式可能会有误杀的情况,比如同一个公司或网吧的出口 ip 是相同的,如果里面有多个正常用户同时发起请求,有些用户可能会被限制住。

              # 对接口限流

              别以为限制了用户和 IP 就万事大吉,有些高手甚至可以使用代理,每次都请求都换一个 IP。

              这时可以限制请求的接口总次数。

              图片

              在高并发场景下,这种限制对于系统的稳定性是非常有必要的。但可能由于有些非法请求次数太多,达到了该接口的请求上限,而影响其他的正常用户访问该接口。看起来有点得不偿失。

              # 加验证码

              相对于上面三种方式,加验证码的方式可能更精准一些,同样能限制用户的访问频次,但好处是不会存在误杀的情况。

              图片

              通常情况下,用户在请求之前,需要先输入验证码。用户发起请求之后,服务端会去校验该验证码是否正确。只有正确才允许进行下一步操作,否则直接返回,并且提示验证码错误。

              此外,验证码一般是一次性的,同一个验证码只允许使用一次,不允许重复使用。

              普通验证码,由于生成的数字或者图案比较简单,可能会被破解。优点是生成速度比较快,缺点是有安全隐患。

              还有一个验证码叫做:移动滑块,它生成速度比较慢,但比较安全,是目前各大互联网公司的首选。

              # 提高业务门槛

              上面说的加验证码虽然可以限制非法用户请求,但是有些影响用户体验。用户点击秒杀按钮前,还要先输入验证码,流程显得有点繁琐,秒杀功能的流程不是应该越简单越好吗?

              其实,有时候达到某个目的,不一定非要通过技术手段,通过业务手段也一样。

              12306 刚开始的时候,全国人民都在同一时刻抢火车票,由于并发量太大,系统经常挂。后来,重构优化之后,将购买周期放长了,可以提前 20 天购买火车票,并且可以在 9 点、10、11 点、12 点等整点购买火车票。调整业务之后(当然技术也有很多调整),将之前集中的请求,分散开了,一下子降低了用户并发量。

              回到这里,我们通过提高业务门槛,比如只有会员才能参与秒杀活动,普通注册用户没有权限。或者,只有等级到达 3 级以上的普通用户,才有资格参加该活动。

              这样简单的提高一点门槛,即使是黄牛党也束手无策,他们总不可能为了参加一次秒杀活动,还另外花钱充值会员吧?

              # 参考

              学习自:https://www.bilibili.com/video/BV1dP411w7Wt。

              编辑此页 (opens new window)
              #技术随笔
              更新时间: 2024/11/02, 09:43:06
              最近更新
              01
              技术随笔 - Element Plus 修改包名 原创
              11-02
              02
              Reactor - 扩展性
              11-02
              03
              Reactor - 最佳实践
              11-02
              更多文章>
              Theme by Vdoing | Copyright © 2021-2024 Young Kbt | blog
              桂ICP备2021009994号
              • 跟随系统
              • 浅色模式
              • 深色模式
              • 阅读模式