实现多级缓存的架构设计方案
架构之美
设计满足业务的系统架构、大数据中台、算法平台,并非易事。在这里分享一线大厂线上真实案例的思考和实践,让我们在互联网架构设计、大数据研发、机器学习实践之路上共同成长!
Official Account
- 目录 -
为什么要做 TMC
-
多级缓存解决方案的痛点 -
TMC 整体架构 -
TMC 本地缓存 -
如何透明 -
整体结构 -
热点发现 -
整体流程 -
数据收集 -
热度滑窗 -
热度汇聚 -
热点探测 -
特性总结 -
实战效果 -
快手商家某次商品营销活动 -
双十一期间部分应用 TMC 效果展示** -
功能展望
- 前言 -
-
应用层热点探测 -
应用层本地缓存 -
应用层缓存命中统计
- 为什么要做 TMC -
-
活动时间、活动类型、活动商品之类的信息不可预期,导致 缓存热点访问 情况不可提前预知;
-
缓存热点访问 出现期间,应用层少数 热点访问 key 产生大量缓存访问请求:冲击分布式缓存系统,大量占据内网带宽,最终影响应用层系统稳定性;
- 多级缓存解决方案的痛点 -
-
热点探测:如何快速且准确的发现 热点访问 key ?
-
数据一致性:前置在应用层的本地缓存,如何保障与分布式缓存系统的数据一致性?
-
效果验证:如何让应用层查看本地缓存命中率、热点 key 等数据,验证多级缓存效果?
-
透明接入:整体解决方案如何减少对应用系统的入侵,做到快速平滑接入?
- TMC整体架构 -
-
存储层:提供基础的 kv 数据存储能力,针对不同的业务场景选用不同的存储服务(codis/zankv/aerospike);
-
代理层:为应用层提供统一的缓存使用入口及通信协议,承担分布式数据水平切分后的路由功能转发工作;
-
应用层:提供统一客户端给应用服务使用,内置“热点探测”、“本地缓存”等功能,对业务透明;
- TMC 本地缓存 -
如何透明
-
基于 spring.data.redis包,使用 RedisTemplate编写业务代码;
-
基于 youzan.framework.redis包,使用 RedisClient编写业务代码;
- 整体结构 -
- 模块划分 -
-
Jedis-Client:Java 应用与缓存服务端交互的直接入口,接口定义与原生 Jedis-Client 无异;
-
Hermes-SDK:自研“热点发现+本地缓存”功能的 SDK 封装,Jedis-Client 通过与它交互来集成相应能力;
-
Hermes 服务端集群:接收 Hermes-SDK 上报的缓存访问数据,进行热点探测,将热点 key 推送给 Hermes-SDK 做本地缓存;
-
缓存集群:由代理层和存储层组成,为应用客户端提供统一的分布式缓存服务入口;
-
基础组件:etcd 集群、Apollo 配置中心,为 TMC 提供“集群推送”和“统一配置”能力;
- 基本流程 -
-
Java 应用调用 Jedis-Client 接口获取 key 的缓存值时,Jedis-Client 会询问 Hermes-SDK 该 key 当前是否是 热点key;
-
对于 热点key ,直接从 Hermes-SDK 的 热点模块 获取热点 key 在本地缓存的 value 值,不去访问 缓存集群 ,从而将访问请求前置在应用层;
-
对于非 热点key ,Hermes-SDK 会通过 Callable回调 Jedis-Client 的原生接口,从 缓存集群 拿到 value 值;
-
对于 Jedis-Client 的每次 key 值访问请求,Hermes-SDK 都会通过其 通信模块 将 key 访问事件 异步上报给 Hermes 服务端集群 ,以便其根据上报数据进行“热点探测”;
-
Java 应用调用 Jedis-Client 的 set() del() expire()接口时会导致对应 key 值失效,Jedis-Client 会同步调用 Hermes-SDK 的 invalid()方法告知其“key 值失效”事件;
-
对于 热点 key ,Hermes-SDK 的 热点模块 会先将 key 在本地缓存的 value 值失效,以达到本地数据强一致。同时 通信模块 会异步将“key 值失效”事件通过 etcd 集群 推送给 Java 应用集群中其他 Hermes-SDK 节点;
-
其他 Hermes-SDK 节点的 通信模块 收到 “key 值失效”事件后,会调用 热点模块 将 key 在本地缓存的 value 值失效,以达到集群数据最终一致;
-
Hermes 服务端集群 不断收集 Hermes-SDK上报的 key 访问事件,对不同业务应用集群的缓存访问数据进行周期性(3s 一次)分析计算,以探测业务应用集群中的热点 key列表;
-
对于探测到的热点 key列表,Hermes 服务端集群 将其通过 etcd 集群 推送给不同业务应用集群的 Hermes-SDK 通信模块,通知其对热点 key列表进行本地缓存;
-
Hermes-SDK 在启动及运行过程中,会从 Apollo 配置中心 读取其关心的配置信息(如:启动关闭配置、黑白名单配置、etcd 地址…);
-
Hermes 服务端集群 在启动及运行过程中,会从 Apollo 配置中心 读取其关心的配置信息(如:业务应用列表、热点阈值配置、etcd 地址…)
- 稳定性 -
-
数据上报异步化:Hermes-SDK 使用 rsyslog技术对“key 访问事件”进行异步化上报,不会阻塞业务;
-
通信模块线程隔离:Hermes-SDK 的 通信模块 使用独立线程池+有界队列,保证事件上报&监听的 I/O 操作与业务执行线程隔离,即使出现非预期性异常也不会影响基本业务功能;
-
缓存管控:Hermes-SDK 的 热点模块 对本地缓存大小上限进行了管控,使其占用内存不超过 64MB(LRU),杜绝 JVM 堆内存溢出的可能;
- 一致性 -
-
Hermes-SDK 的 热点模块 仅缓存 热点 key 数据,绝大多数非热点 key数据由 缓存集群 存储;
-
热点 key 变更导致 value 失效时,Hermes-SDK 同步失效本地缓存,保证 本地强一致;
-
热点 key 变更导致 value 失效时,Hermes-SDK 通过 etcd 集群 广播事件,异步失效业务应用集群中其他节点的本地缓存,保证 集群最终一致;
- 热点发现 -
整体流程
-
数据收集:收集 Hermes-SDK 上报的 key 访问事件;
-
热度滑窗:对 App 的每个 Key,维护一个时间轮,记录基于当前时刻滑窗的访问热度;
-
热度汇聚:对 App 的所有 Key,以 的形式进行 热度排序汇总;
-
热点探测:对 App,从 热 Key 排序汇总 结果中选出 TopN 的热点 Key ,推送给 Hermes-SDK;
- 数据收集 -
-
appName:集群节点所属业务应用 -
uniqueKey:业务应用 key 访问事件 的 key -
sendTime:业务应用 key 访问事件 的发生时间 -
weight:业务应用 key 访问事件 的访问权值
- 热度滑窗 -
- 时间滑窗 -
-
时间轮中共 10 个 时间片,每个时间片记录当前 key 对应 3 秒时间周期的总访问次数;
-
时间轮 10 个时间片的记录累加即表示当前 key 从当前时间向前 30 秒时间窗口内的总访问次数;
- 映射任务 -
对当前 App,从 Map<appname,map>< appname,map<="" code="">中取出 appName 对应的 Map Map
> ;
-
遍历 Map > 中的 key,对每个 key 取出其热度存入其 时间轮 对应的时间片中。
- 热度汇聚 -
-
遍历 App 的 key,将每个 key 的 时间轮 热度进行汇总(即 30 秒时间窗口内总热度)得到探测时刻 滑窗总热度;
-
将 < key , 滑窗总热度 > 以排序集合的方式存入 Redis 存储服务 中,即 热度汇聚结果;
- 热点探测 -
-
在前几步,每 3 秒 一次的 映射任务 执行,对每个 App 都会产生一份当前时刻的 热度汇聚结果
-
Hermes 服务端集群 中的“热点探测”节点,对每个 App,只需周期性从其最近一份 热度汇聚结果 中取出达到热度阈值的 TopN 的 key 列表,即可得到本次探测的 热点 key 列表;
- 特性总结 -
实时性
准确性
扩展性
- 实战效果 -
快手商家某次商品营销活动
某核心应用的缓存请求&命中率曲线图:
-
上图蓝线为应用集群调用get()方法访问缓存次数 -
上图绿线为获取缓存操作命中TMC本地缓存的次数
-
上图为本地缓存命中率曲线图
热点缓存对应用访问的加速效果:
-
上图为应用接口 QPS 曲线
-
上图为应用接口 RT 曲线
双十一期间部分应用 TMC 效果展示:
商品域核心应用效果
活动域核心应用效果
- 功能展望 -
来源:https://segmentfault.com/a/1190000017142556/
架构之美
设计满足业务的系统架构、大数据中台、算法平台,并非易事。在这里分享一线大厂线上真实案例的思考和实践,让我们在互联网架构设计、大数据研发、机器学习实践之路上共同成长!
Official Account