Redis

Entropy Tree Lv4

本文来源于第五届字节跳动青训营活动,已收录到Redis | 青训营笔记 - 掘金 (juejin.cn) ,主要记录了对 Redis 的学习

Redis

1.Redis 是什么

为什么需要 Redis

  • 数据从单表,演进出了分库分表
  • MySQL 从单机演进出了集群
    • 数据量增长
    • 读写数据压力的不断增加
  • 数据分冷热
    • 热数据:经常被访问到的数据
  • 将热数据存储到内存中

Redis 基本工作原理

  • 数据从内存中读写
  • 数据保存到硬盘上防止重启数据丢失
    • 增量数据保存到 AOF 文件中
    • 全量数据保存到 RDB 文件中
  • 单线程处理所有操作命令

2.Redis 应用案例

案例

1.连续签到

app 每日签到,如果断签,连续签到计数将归 0。

连续签到的要求:每天必须在 23:59 前签到

  • Key:uuid…
  • value:252
  • expireAt:24:00

String 数据结构

  • 可以存储字符串、数字、二进制数据
  • 通常和 expire 配合使用
  • 场景:存储计数、Session

2.消息通知

用 list 作为消息队列

  • 使用场景:消息通知

    例如当文章更新时,将更新后的文章推送到 ES,用户就能搜索到最新的文章数据。

List 数据结构 Quicklist

Quicklist 由一个双向链表和 listpack 实现

3.计数

一个用户有多项计数需求,可通过 hash 结构存储

Hash 数据结构 dict

  • rehash:rehash 操作是将 ht[0] 中的数据,全部迁移到 ht[1] 中。数据量小的场景下,直接将数据从 ht[0] 拷贝到 ht[1] 速度是较快的。数据量大的场景,例如存有上百万的 KV 时,迁移过程将会明显阻塞用户请求。
  • 渐进式 rehash:为避免出现这种情况,使用了 rehash 方案。基本原理就是,每次用户访问时都会迁移少量数据。将整个迁移过程,平摊到所有的访问请求过程中。

4.排行榜

积分变化时,排名要实时变更

zset 数据结构 zskiplist

  • 结合 dict 后,可实现通过 key 操作跳表的功能

5.限流

  • 要求1秒内放行的请求为 N,超过 N 则禁止访问

  • Key:comment_freq_limit_1671356046

    对这个 Key 调用 incr,超过限制 N 则禁止访问

    1671356046 是当前时间戳

6.分布式锁

并发场景:要求一次只能有一个协程执行。执行完成后,其它等待中的协程才能执行。

可以使用 Redis 的 setnx 实现,利用了两个特性

  • Redis 是单线程执行命令
  • setnx 只有未设置过才能执行成功

3.Redis 使用注意事项

3.1 大 Key、热 Key

大 Key 的定义

数据类型大 Key 标准
String 类型value 的字节数大于 10KB 即为大Key
Hash/Set/Zset/list 等复杂数据结构类型元素个数大于5000个或总 value 字节数大于 10MB 即为大Key

大 Key 的危害

  • 读取成本高
  • 容易导致慢查询(过期、删除)
  • 主从复制异常,服务阻塞,无法正常响应请求

业务侧使用大 Key 的表现

  • 请求 Redis 超时报错

消除大 Key 的方法

  1. 拆分

    将大 Key 拆分成为小 Key。例如一个 String 拆分成多个 String

  2. 压缩

    将 value 压缩后写入 redis,读取时解压后再使用。压缩算法可以是 gzip、snappy、lz4 等。通常情况下,一个压缩算法压缩率高,则解压耗时就长。需要对实际数据进行测试后,选择一个合适的算法。如果存储的是 JSON 字符串,可以考虑使用 MessagePack 进行序列化。

  3. 集合类结构 hash、list、set、zset

    1. 拆分:可以用 hash 取余,位掩码的方式决定放在哪个 key 中。
    2. 区分冷热:如榜单列表场景使用zset,只缓存前10页数据,后续数据走db。

热 Key 的定义

用户访问一个 Key 的 QPS 特别高,导致 Server 实例出现 CPU 负载突增或者不均的情况。

热 Key 没有明确的标准,QPS 超过500就有可能被识别为热 Key。

解决热 Key 的方法

  1. 设置 Localcache

    在访问 Redis 之前,在业务服务侧设置 Localcache,降低访问 Redis 的QPS。LocalCache 中缓存过期或未命中,则从 Redis 中将数据更新到 LocalCache。Java 的 Guava、Golang 的 Bigcache 就是这类 LocalCache。

  2. 拆分

    将 key: value 这一个热 Key 复制写入多份,例如 key1: value;key2: value,访问的时候访问多个 key,但 value 是同一个,以此将qps 分散到不同实例上,降低负载。代价是更新时需要更新多个 key,存在数据短暂不一致的风险。

  3. 使用 Redis 代理的热 Key 承载能力

    字节跳动团队的 Redis 访问代理就具备热 Key 承载能力。本质上是结合了“热 Key 发现”、“LocalCache”两个功能

3.2 慢查询场景

容易导致 redis 慢查询的操作

  1. 批量操作一次性传入过多的 key/value,如 mset/hmset/sadd/zadd 等 O(n) 操作

    建议单批次不要超过100,超过100之后性能下降明显。

  2. zset 大部分命令都是 O(log(n)) ,当大小超过5k以上时,简单的 zadd/zrem 也可能导致慢查询

  3. 操作的单个 value 过大,超过 10KB,也就是说,要避免使用大 Key

  4. 对大 Key 的 delete/expire 操作也可能导致慢查询,Redis4.0之前不支持异步删除unlink,大 Key 删除会阻塞 Redis

3.3 缓存穿透、缓存雪崩

缓存穿透:热点数据查询绕过缓存,直接查询数据库

缓存雪崩:大量缓存同时过期

缓存穿透、雪崩的危害

  1. 查询一个一定不存在的数据

    通常不会缓存不存在的数据,这类查询请求都会直接打到db,如果有系统bug或人为攻击,那么容易导致db响应慢甚至宕机。

  2. 缓存过期时

    在高并发场景下,一个热 key 如果过期,会有大量请求同时击穿至db,容易影响db性能和稳定。

    同一时间有大量key集中过期时,也会导致大量请求落到db上,导致查询变慢,甚至出现db无法响应新的查询。

如何减少缓存穿透

  1. 缓存空值

    如一个不存在的userID,这个id在缓存和数据库中都不存在,则可以缓存一个空值,下次再查询缓存直接返回空值。

  2. 布隆过滤器

    通过 bloom filter 算法来存储合法 Key,得益于该算法超高的压缩率,只需占有极小的空间就能存储大量 key 值。

如何避免缓存雪崩

  1. 缓存空值

    将缓存失效时间分散开,比如在原有的失效时间基础上增加一个随机值,例如不同Key过期时间,可以设置为10分1秒过期,10分23秒过期,10分8秒过期。单位秒部分就是随机时间,这样过期时间就分散了。

    对于热点数据,过期时间尽量设置得长一些,冷门的数据可以相对设置过期时间短一些。

  2. 使用缓存集群,避免单机宕机造成的缓存雪崩。

  • 标题: Redis
  • 作者: Entropy Tree
  • 创建于 : 2023-02-22 23:50:54
  • 更新于 : 2023-04-01 07:55:52
  • 链接: https://www.entropy-tree.top/2023/02/22/golang-day17/
  • 版权声明: 本文章采用 CC BY-NC-SA 4.0 进行许可。
评论