Redis开发与运维笔记-哨兵
Redis的主从复制模式下,一旦主节点由于故障不能提供服务,需要人 工将从节点晋升为主节点,同时还要通知应用方更新主节点地址,对于很多应用场景这种故障处理的方式是无法接受的。可喜的是Redis从2.8开始正式 提供了Redis Sentinel(哨兵)架构来解决这个问题。
参考书籍:Redis开发与运维
哨兵
基本概念
主从复制的问题
Redis的主从复制模式解决了两个问题:1、主节点备份,主节点出现故障时从节点可以切换为主节点提供服务。2、应用可以从从节点读取数据,降低主节点的读压力。
Redis的主从模式也引入了新的问题:
- 主节点故障,选择从节点切换为主节点,修改应用配置,修改其他从节点指向新的主节点进行复制。这些都需要手工干预
- 主节点的写能力受到单机限制(与哨兵无关)
- 主节点的存储能力受到单机限制(与哨兵无关)
高可用
主从复制模式主节点发生故障时处理流程如下:
- 选取一个从节点执行
slaveof no one
使其成为主节点。 - 更新应用的主节点信息,并重启应用
- 更新其他从节点使其复制新的主节点
- 原主节点故障解决后,使其复制新的主节点
上述处理流程被认为不是高可用的,因为整个流程需要人进行手工干预,有些公司将上述流程自动化了,但是仍然存在下面这些问题:1)判断节点不可达的机制是否健全和标准。2)如果有多个从节点,怎样保证只有一个从节点晋升为主节点。3)通知客户端更新新主节点的机制是否足够健壮。
Redis Sentinel高可用
当主节点出现故障时,Redis Sentinel能自动完成故障发现和故障转移,并通知应用方,从而实现真正的高可用。
以1个主节点、2个从节点、3个Sentinel节点为例:拓扑结构如下图
当主节点出现故障时,从节点复制失败。整个故障转移的流程如下:
-
主节点故障,导致2个从节点与主节点失去连接,主从复制失败
-
每个Sentinel节点通过定期监控发现主节点故障
-
多个Sentinel节点对主节点的故障达成一致,选举出Sentinel-3节点作为领导者负责故障转移
-
如图所示,Sentinel-3节点完成故障转移流程同1.2节叙述一致,不过是自动完成的
安装和部署
按照1.3中拓扑结构搭建Redis哨兵。
部署结构
角色 | ip | port |
---|---|---|
master | 127.0.0.1 | 6379 |
slave-1 | 127.0.0.1 | 6380 |
slave-2 | 127.0.0.1 | 6381 |
sentinel-1 | 127.0.0.1 | 26379 |
sentinel-2 | 127.0.0.1 | 26380 |
sentinel-3 | 127.0.0.1 | 26381 |
部署redis节点
-
部署主节点
- 配置
redis-6379.conf
1
2
3
4
5port 6379
daemonize yes
logfile "6379.log"
dbfilename "dump-6379.rdb"
dir "./data/"- 启动
redis-server redis-6379.conf
- 配置
-
部署从节点
- 配置
redis-6380.conf
、redis-6381.conf
1
2
3
4
5
6port 6380
daemonize yes
logfile "6380.log"
dbfilename "dump-6380.rdb"
dir "./data/"
slaveof 127.0.0.1 6379- 启动
redis-server redis-6380.conf
- 配置
-
查看主从关系,使用
info Replication
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35➜ ~ redis-cli info Replication
# Replication
role:master
connected_slaves:2
slave0:ip=127.0.0.1,port=6380,state=online,offset=434,lag=1
slave1:ip=127.0.0.1,port=6381,state=online,offset=434,lag=1
master_replid:993bee493d216cc7bdf38b59d6fc4e0535e94df8
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:434
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:434
➜ ~ redis-cli -p 6380 info Replication
# Replication
role:slave
master_host:127.0.0.1
master_port:6379
master_link_status:up
master_last_io_seconds_ago:5
master_sync_in_progress:0
slave_repl_offset:476
slave_priority:100
slave_read_only:1
connected_slaves:0
master_replid:993bee493d216cc7bdf38b59d6fc4e0535e94df8
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:476
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:476
部署Sentinel节点
-
配置
redis-sentinel-26379.conf
1
2
3
4
5
6
7
8port 26379
daemonize yes
logfile "26379.log"
dir ./data/
sentinel monitor mymaster 127.0.0.1 6379 2
sentinel down-after-milliseconds mymaster 30000
sentinel parallel-syncs mymaster 1
sentinel failover-timeout mymaster 180000- mymaster:主节点别名
- 127.0.0.1 6379:监视主节点,后面的2表示判断主节点失败至少需要2个Sentinel节点同意。
-
启动Sentinel节点
redis-server redis-sentinel-26379.conf --sentinel
redis-sentinel redis-sentinel-26379.conf
-
确认
1
2
3
4
5
6
7
8➜ ~ redis-cli -p 26379 info Sentinel
# Sentinel
sentinel_masters:1
sentinel_tilt:0
sentinel_running_scripts:0
sentinel_scripts_queue_length:0
sentinel_simulate_failure_flags:0
master0:name=mymaster,status=ok,address=127.0.0.1:6379,slaves=2,sentinels=1- 由于此时只启动了一个Sentinel节点,所以sentinel=1,全部启动后统计信息:
1
2
3
4
5
6
7
8➜ redis_sentinel redis-cli -p 26381 info Sentinel
# Sentinel
sentinel_masters:1
sentinel_tilt:0
sentinel_running_scripts:0
sentinel_scripts_queue_length:0
sentinel_simulate_failure_flags:0
master0:name=mymaster,status=ok,address=127.0.0.1:6379,slaves=2,sentinels=3
生产环境Sentinel节点应该部署在不同的物理机上
Redis Sentinel 节点与Redis 数据节点在配置上没有任何区别。只是添加了一些Sentinel节点对它们的监控
配置优化
Redis安装目录下有一个 sentinel.conf,是默认的Sentinel节点配置文件。下面就以它为例子进行说明:
1 | port 26379 |
配置优化和说明
sentinel monitor
sentinel monitor <master-name> <ip> <port> <quorum>
- master-name:主节点别名
- ip、port:主节点IP、端口
- quorum:判断主节点最终不可达所需票数。选举时,至少有max(quorum, sentinels/2+1)个节点才能选举出领导者
sentinel down-after-milliseconds
sentinel down-after-milliseconds <master-name> <times>
每个Sentinel节点都要通过定期发送ping命令来判断Redis数据节点和其 余Sentinel节点是否可达,如果超过了down-after-milliseconds配置的时间且没 有有效的回复,则判定节点不可达,<times>
(单位为毫秒)就是超时时 间。
注:虽然此配置项指定 master-name
,但是对Sentinel节点、主节点、从节点可达性判断都生效。
sentinel parallel-syncs
sentinel parallel-syncs <master-name> <nums>
限制故障转移后,每次向新节点发起复制的从节点个数
sentinel failover-timeout
sentinel failover-timeout <master-name> <times>
通常被解释成故障转移超时时间,实际上它作用于故障转移的各个阶段:
- 如果Redis Sentinel对一个主节点故障转移失败,那么下次再对该主 节点做故障转移的起始时间是failover-timeout的2倍
- 选举出来晋升的从节点执行
slaveof no one
失败,超过此超时时间则故障转移失败 - 从节点晋升主节点成功后,Sentinel节点还会执行info命令来进行确认,如果此过程超时则故障转移失败
- 其余从节点复制时超过此时间,则故障转移失败。注意即使超过了这个时间,Sentinel节点也会最终配置从 节点去同步最新的主节点。
sentinel auth-pass
sentinel auth-pass <master-name> <password>
如果Sentinel监控的主节点配置了密码,sentinel auth-pass配置通过添加 主节点的密码,防止Sentinel节点对主节点无法监控。
sentinel notification-script
sentinel notification-script <master-name> <script-path>
sentinel notification-script
的作用是在故障转移期间,当一些警告级别的 Sentinel事件发生(指重要事件,例如-sdown:客观下线、-odown:主观下线)时,会触发对应路径的脚本,并向脚本发送相应的事件参数。
例如在/opt/redis/scripts/下配置了notification.sh,该脚本会接收每个 Sentinel节点传过来的事件参数,可以利用这些参数作为邮件或者短信报警依据:
1 |
|
sentinel client-reconfig-script
sentinel client-reconfig-script <master-name> <script-path>
sentinel client-reconfig-script
的作用是在故障转移结束后,会触发对应路 径的脚本,并向脚本发送故障转移结果的相关参数。和notification-script类 似,可以在/opt/redis/scripts/下配置了client-reconfig.sh,该脚本会接收每个 Sentinel节点传过来的故障转移结果参数,并触发类似短信和邮件报警:
发送的具体内容如下:
<master-name> <role> <state> <from-ip> <from-port> <to-ip> <to-port>
注:
<script-path>
必须有可执行权限。<script-path>
开头必须包含shell脚本头(例如#!/bin/sh),否则事件发生时Redis将无法执行脚本产生如下错误- Redis规定脚本的最大执行时间不能超过60秒,超过后脚本将被杀掉。
- 如果shell脚本以exit 1结束,那么脚本稍后重试执行。如果以exit 2或者更高的值结束,那么脚本不会重试。正常返回值是exit 0。
- 如果需要运维的Redis Sentinel比较多,建议不要使用这种脚本的形式来进行通知,这样会增加部署的成本
监控多个主节点
配置如下
1 | sentinel monitor master-business-1 10.10.xx.1 6379 2 |
调整配置
sentinel set <param> <value>
参数 | 使用方法 |
---|---|
quorum | sentinel set mymaster quorum 2 |
down-after-milliseconds | sentinel set mymaster down-after-milliseconds 30000 |
failover-timeout | sentinel set mymaster failover-timeout 360000 |
parallel-syncs | sentinel set mymaster parallel-syncs 2 |
notification-script | sentinel set mymaster notification-script /opt/xx.sh |
client-reconfig-script | sentinel set mymaster client-reconfig-script /opt/yy.sh |
auth-pass | sentinel set mymaster auth-pass masterPassword |
有几点需要注意:
- sentinel set命令只对当前Sentinel节点有效。
- sentinel set命令如果执行成功会立即刷新配置文件,这点和Redis普 通数据节点设置配置需要执行config rewrite刷新到配置文件不同。
- 建议所有Sentinel节点的配置尽可能一致,这样在故障发现和转移时 比较容易达成一致。
- 表9中为sentinel set支持的参数,具体可以参考源码中的sentinel.c的 sentinelSetCommand函数。
- Sentinel对外不支持config命令。
部署技巧
-
Sentinel节点不应该部署在一台物理“机器”上
-
部署至少三个且奇数个的Sentinel节点
领导者选举需要至少一半加一个节点,保证判断准确的情况下,至少3个,奇数相对于偶数节省一个Sentinel节点。
-
只有一套Sentinel,还是每个主节点配置一套Sentinel?
如果Sentinel节点集合监控的是同一个业务的多个主节点集合,那么使用方案一。否则一般建议采用方案二。
API
sentinel masters
展示所有被监控的主节点状态以及相关的统计信息
sentinel master <master name>
展示指定<master name>
的主节点状态以及相关的统计信息
sentinel slaves <master name>
展示指定<master name>
的从节点状态以及相关的统计信息
sentinel sentinels <master name>
展示指定<master name>
的Sentinel节点集合(不包含当前Sentinel节点)
sentinel get-master-addr-by-name <master name>
返回指定<master name>
主节点的IP地址和端口
sentinel reset <pattern>
当前Sentinel节点对符合<pattern>(通配符风格)
主节点的配置进行重 置,包含清除主节点的相关状态(例如故障转移),重新发现从节点和 Sentinel节点
sentinel failover <master name>
对指定<master name>
主节点进行强制故障转移(没有和其他Sentinel节 点“协商”),当故障转移完成后,其他Sentinel节点按照故障转移的结果更 新自身配置,这个命令在Redis Sentinel的日常运维中非常有用
sentinel ckquorum <master name>
检测当前可达的Sentinel节点总数是否达到<quorum>
的个数。例如 quorum=3,而当前可达的Sentinel节点个数为2个,那么将无法进行故障转 移,Redis Sentinel的高可用特性也将失去
sentinel flushconfig
将Sentinel节点的配置强制刷到磁盘上,这个命令Sentinel节点自身用得 比较多,对于开发和运维人员只有当外部原因(例如磁盘损坏)造成配置文 件损坏或者丢失时,这个命令是很有用的。
sentinel remove <master name>
取消当前Sentinel节点对于指定<master name>
主节点的监控
sentinel monitor<master name><ip><port><quorum>
与配置文件中的命令相同
sentinel set<master name>
修改Sentinel配置
sentinel is-master-down-by-addr
Sentinel节点之间用来交换对主节点是否下线的判断,根据参数的不同,还可以作为Sentinel领导者选举的通信方式。具体细节后面介绍。
客户端连接
Redis Sentinel的客户端
编程语言的客户端,如果需要正确地连接Redis Sentinel,必须有Sentinel节点集合和 masterName两个参数。
Redis Sentinel客户端基本实现原理
基本步骤如下:
- 遍历Sentinel节点集合获取一个可用的Sentinel节点,后面会介绍 Sentinel节点之间可以共享数据,所以从任意一个Sentinel节点获取主节点信息都是可以的
- 通过sentinel get-master-addr-by-name master-name这个API来获取对应主节点的相关信息
- 验证当前获取的“主节点”是真正的主节点,这样做的目的是为了防止故障转移期间主节点的变化
- 保持和Sentinel节点集合的“联系”,时刻获取关于主节点的相关“信息”
Java操作Redis Sentinel
连接池初始化
1 | public JedisSentinelPool(String masterName, Set<String> sentinels, |
- masterName——主节点名
- sentinels——Sentinel节点集合
- poolConfig——common-pool连接池配置
- connectTimeout——连接超时
- soTimeout——读写超时
- password——主节点密码
- database——当前数据库索引
- clientName——客户端名
连接池初始化重要函数#initSentinels
1 | private HostAndPort initSentinels(Set<String> sentinels, final String masterName) { // 主节点 |
故障转移监听函数:
1 | Jedis sentinelJedis = new Jedis(sentinelHost, sentinelPort); |
实现原理
三个定时监控任务
-
每隔10秒,每个Sentinel节点会向主节点和从节点发送info命令获取最新的拓扑结构,作用如下:
- 通过向主节点执行info命令,获取从节点的信息,这也是为什么 Sentinel节点不需要显式配置监控从节点
- 当有新的从节点加入时都可以立刻感知出来
- 节点不可达或者故障转移后,可以通过info命令实时更新节点拓扑信息
-
每隔2秒,每个Sentinel节点会向Redis数据节点的__sentinel__:hello 频道上发送该Sentinel节点对于主节点的判断以及当前Sentinel节点的信息,时每个Sentinel节点也会订阅该频道,来了解其他 Sentinel节点以及它们对主节点的判断,所以这个定时任务可以完成以下两个工作:
- 发现新的Sentinel节点:通过订阅主节点的__sentinel__:hello了解其他 的Sentinel节点信息,如果是新加入的Sentinel节点,将该Sentinel节点信息保 存起来,并与该Sentinel节点创建连接
- Sentinel节点之间交换主节点的状态,作为后面客观下线以及领导者选举的依据。
-
每隔1秒,每个Sentinel节点会向主节点、从节点、其余Sentinel节点 发送一条ping命令做一次心跳检测
主观下线和客观下线
-
主观下线
每个Sentinel节点向主节点、从节点、其他Sentinel节点发送ping命令时,如果超过
down-after-milliseconds
时间没有进行有效回复,Sentinel节点就会对该节点做失败 判定,这个行为叫做主观下线。 -
客观下线
当Sentinel主观下线的节点是主节点时,该Sentinel节点会通过sentinel is- master-down-by-addr命令向其他Sentinel节点询问对主节点的判断,当超过 <quorum>个数,Sentinel节点认为主节点确实有问题,这时该Sentinel节点会 做出客观下线的决定
从节点、Sentinel节点在主观下线后,没有后续的故障转移操作。
这里需要介绍一下
sentinel is-master-down-by-addr
命令:
sentinel is-master-down-by-addr <ip> <port> <current_epoch> <runid>
- current-epoch:当前配置纪元
- runid:参数有两种类型,不同类型决定了此API作用的不同
- runid = "*"时,作用是Sentinel节点直接交换对主节点下线的判定
- 当runid等于当前Sentinel节点的runid时,作用是当前Sentinel节点希望目标Sentinel节点同意自己成为领导者的请求
领导者Sentinel节点选举
Redis使用了Raft算法实 现领导者选举,具体流程如下:
- 每个在线的Sentinel节点都有资格成为领导者,当它确认主节点主观 下线时候,会向其他Sentinel节点发送sentinel is-master-down-by-addr命令, 要求将自己设置为领导者
- 收到命令的Sentinel节点,如果没有同意过其他Sentinel节点的sentinel is-master-down-by-addr命令,将同意该请求,否则拒绝
- 如果该Sentinel节点发现自己的票数已经大于等于max(quorum, num(sentinels)/2+1),那么它将成为领导者
- 如果此过程没有选举出领导者,将进入下一次选举
故障转移
领导者选举处的Sentinel节点负责故障转移,具体步骤如下:
在从节点列表中选出一个节点作为新的主节点
- 过滤:主观下线(断线),5s内没回复Sentinel的ping响应,与主节点失联超过down-after-milliseconds*10秒
- 选择
slave-priority
(优先级)最高的从节点列表,如果存在则返回,不存在则继续 - 选择复制偏移量最大的从节点,如果存在则返回,不存在继续
- 选择runId最小的从节点
晋升主节点
Sentinel对选中从节点执行slaveof no one
使其晋升为主节点
复制新主节点
Sentinel领导者节点会向剩余的从节点发送命令,让它们成为新主节 点的从节点,复制规则和parallel-syncs参数有关
原主节点处理
Sentinel节点集合会将原来的主节点更新为从节点,并保持着对其关注,当其恢复后命令它去复制新的主节点