谈谈redis主从架构的原理
redis为什么需要实现读写分离
master持久化对于主从架构的安全保障的意义
`redis replication`最基本的原理
redis主从架构的核心原理
主从复制的断点续传
无磁盘化复制
过期key处理
复制的完整流程
数据同步相关的核心机制
全量复制(耗时)
增量复制(异常情况)
heartbeat
异步复制
总结
特别感谢
redis为什么需要实现读写分离
redis高并发与分布式系统的高并发之间的关系:
大量使用redis技术的分布式系统,它的高并发能力与redis的高并发密切相关,因此要想提升分布式系统的高并发能力,就要提升redis在高并发场景下的性能。
如果我们生产环境中使用的redis是单机的,那么redis的整体性能一定是有瓶颈的。因此,我们说redis支撑高并发的瓶颈在于单机,那么如果redis要支撑10万+的并发,应该怎么破呢?
首先需要明白一个事实,单机的redis要想支撑超过10万+的QPS,是不太可能的,正常情况下单机的QPS在几万级别。
要想支撑10万+的QPS,我们可以通过基于一主多从的读写分离架构来实现,一台机器作为master,其他机器作为slave,写请求只通过master,slave用来接收读请求。项目中使用到redis的场景,一般是读多写少的,因此我们可以用多个slave来缓解读请求压力,达到支撑10万+读QPS的目的。
需要说明的是,redis主从架构实现了读写分离,缓解了单机的读请求压力,提升了整个redis的读QPS。如果我们需要实现更高的读QPS,就可以加一些slave节点,所以我们说redis主从架构其实是可支持水平扩展的读高并发架构。
接下来,我们就来分析一下redis主从架构(redis replication)的相关原理。
master持久化对于主从架构的安全保障的意义
在正式讲解主从架构的原理之前,我们先聊一下master持久化对于主从架构的安全保障。
如果采用了主从架构,那么建议必须开启master node的持久化。
不建议用slave node作为master node的数据热备,因为那样的话,如果你关掉master的持久化,可能在master宕机重启的时候数据是空的,然后可能一经过复制,slave node数据也丢了。
我们设想一个场景,master关闭了RDB和AOF持久化,那么此时master中的数据全部在内存中;此时,master宕机重启后,本地磁盘中是没有数据可以恢复的,就会直接认为本地数据为空的,那么就会将空的数据集同步给slave,那么slave的数据会被全部清空,造成slave数据百分百丢失。
因此我们一定要注意:master节点,必须要使用持久化机制
其次,master的各种备份方案,也是要做的,万一说本地的所有文件丢失了,我们还可以从备份中挑选一份rdb去恢复master,这样才能确保master启动的时候,是有数据的。
redis replication
最基本的原理
-
redis采用 异步方式复制数据到slave节点,不过redis 2.8开始,slave node会周期性地确认自己每次复制的数据量 -
一个master node可以配置多个slave node -
slave node也可以连接其他的slave node -
slave node做复制的时候,是不会block master node的正常工作的(异步) -
slave node在做复制的时候,也不会block对自己的查询操作,它会用 旧的数据集来提供服务; 但是 复制完成的时候,需要删除旧数据集,加载新数据集,这个时候就会 暂停对外服务了 -
slave node主要用来进行 横向扩容,做读写分离,扩容的slave node可以提高读的吞吐量
redis主从架构的核心原理
当启动一个slave node的时候,它会发送一个PSYNC
命令给master node。
如果这是slave node重新连接master node,那么master node仅仅会复制给slave部分缺少的数据; 否则如果是slave node第一次连接master node,那么会触发一次full resynchronization(全量复制)
开始full resynchronization
的时候,master会启动一个后台线程,开始生成一份RDB快照文件,同时还会将从客户端收到的所有写命令缓存在内存中。RDB文件生成完毕之后,master会将这个RDB发送给slave,slave会先写入本地磁盘,然后再从本地磁盘加载到内存中。然后master会将内存中缓存的写命令发送给slave,slave也会同步这些数据。
slave node如果跟master node有网络故障,断开了连接,会自动重连。master如果发现有多个slave node都来重新连接,仅仅会启动一个rdb save操作,用一份数据服务所有slave node。
主从复制的断点续传
从redis 2.8开始,就支持主从复制的断点续传,如果主从复制过程中,网络连接断掉了,那么可以接着上次复制的地方,继续复制下去,而不是从头开始复制一份。
master node会在内存中常见一个backlog,master和slave都会保存一个replica offset还有一个master id,offset就是保存在backlog中的。如果master和slave网络连接断掉了,slave会让master从上次的replica offset开始继续复制。
但是如果没有找到对应的offset,那么就会执行一次resynchronization
无磁盘化复制
master在内存中直接创建rdb,然后发送给slave,不会在自己本地落地磁盘。
repl-diskless-sync repl-diskless-sync-delay,等待一定时长再开始复制,因为要等更多slave重新连接过来。
过期key处理
slave不会过期key,只会等待master过期key。如果master过期了一个key,或者通过LRU淘汰了一个key,那么会模拟一条del命令发送给slave。
复制的完整流程
-
slave node启动,仅仅保存master node的信息,包括master node的host和ip,但是复制流程没开始
master host和ip是在redis.conf里面的slaveof配置的
-
slave node内部有个定时任务,每秒检查是否有新的master node要连接和复制,如果发现,就跟master node建立socket网络连接
-
slave node发送ping命令给master node
-
口令认证,如果master设置了requirepass,那么slave node必须发送masterauth的口令过去进行认证
-
master node第一次执行全量复制,将所有数据发给slave node
-
master node后续持续将写命令,异步复制给slave node
数据同步相关的核心机制
这里指的是第一次slave连接master的时候,执行的全量复制细节
-
master和slave都会维护一个offset
master会在自身不断累加offset,slave也会在自身不断累加offset slave每秒都会上报自己的offset给master,同时master也会保存每个slave的offset
这个倒不是说特定就用在全量复制的,主要是master和slave都要知道各自的数据的offset,才能知道互相之间的数据不一致的情况。
-
backlog(备份日志)
-
master node有一个backlog,默认是1MB大小 -
master node给slave node复制数据时,也会将数据在backlog中同步写一份 -
backlog主要是用来做 全量复制中断后的增量复制。 -
master run id
info server,可以看到master run id 如果根据host+ip定位master node,是不靠谱的,如果master node重启或者数据出现了变化,slave node应该根据不同的run id区分,run id不同就做全量复制如果需要不更改run id重启redis,可以使用redis-cli debug reload命令
只要master的run id变化了,slave就执行一次全量复制
-
psync
从节点使用psync从master node进行复制,psync runid offset master node会根据自身的情况返回响应信息,可能是FULLRESYNC runid offset触发全量复制,可能是CONTINUE触发增量复制
全量复制(耗时)
-
master执行bgsave,在本地生成一份rdb快照文件 -
master node将rdb快照文件发送给salve node,如果rdb复制时间超过60秒(repl-timeout),那么slave node就会认为复制失败,可以适当调节大这个参数 -
对于千兆网卡的机器,一般每秒传输100MB,6G文件,很可能超过60s -
master node在生成rdb时,会将 所有新的写命令缓存在内存中, 在slave node保存了rdb之后,再将新的写命令复制给slave node -
client-output-buffer-limit slave 256MB 64MB 60,如果在复制期间,内存缓冲区持续消耗超过64MB,或者一次性超过256MB,那么停止复制,复制失败 -
slave node接收到rdb之后, 清空自己的旧数据,然后重新加载rdb到自己的内存中,同时基于旧的数据版本对外提供服务 -
如果slave node开启了AOF, 那么会立即执行BGREWRITEAOF,重写AOF
rdb生成、rdb通过网络拷贝、slave旧数据的清理、slave aof rewrite,很耗费时间
如果复制的数据量在4G~6G之间,那么很可能全量复制时间消耗到1分半到2分钟
增量复制(异常情况)
-
如果全量复制过程中,master-slave网络连接断掉,那么slave重新连接master时,会触发增量复制 -
master直接从自己的backlog中获取部分丢失的数据,发送给slave node,默认backlog就是1MB -
master就是根据slave发送的psync中的offset来从backlog中获取数据的
heartbeat
主从节点互相都会发送heartbeat信息
master默认每隔10秒发送一次heartbeat,salve node每隔1秒发送一个heartbeat
异步复制
master每次接收到写命令之后,先在内部写入数据,然后异步发送给slave node。
总结
本文先从为什么redis需要实现读写分离来阐述,引出了主从架构实现的读写分离,然后对redis的主从同步原理做了详细的说明,并配合了一些图片方便读者来理解,希望读者看完可以有所收获,谢谢大家!
特别感谢
感谢中华石杉老师的讲解,让我对redis的主从同步有了比较深入的理解,谢谢您大白话式的讲解,真的太好了!