Redis开发与运维笔记-哨兵
Redis的主从复制模式下,一旦主节点由于故障不能提供服务,需要人 工将从节点晋升为主节点,同时还要通知应用方更新主节点地址,对于很多应用场景这种故障处理的方式是无法接受的。可喜的是Redis从2.8开始正式 提供了Redis Sentinel(哨兵)架构来解决这个问题。
参考书籍:Redis开发与运维
哨兵
基本概念
主从复制的问题
Redis的主从复制模式解决了两个问题:1、主节点备份,主节点出现故障时从节点可以切换为主节点提供服务。2、应用可以从从节点读取数据,降低主节点的读压力。
Redis的主从模式也引入了新的问题:
- 主节点故障,选择从节点切换为主节点,修改应用配置,修改其他从节点指向新的主节点进行复制。这些都需要手工干预
- 主节点的写能力受到单机限制(与哨兵无关)
- 主节点的存储能力受到单机限制(与哨兵无关)
高可用
主从复制模式主节点发生故障时处理流程如下:
- 选取一个从节点执行slaveof no one使其成为主节点。
- 更新应用的主节点信息,并重启应用
- 更新其他从节点使其复制新的主节点
- 原主节点故障解决后,使其复制新的主节点
上述处理流程被认为不是高可用的,因为整个流程需要人进行手工干预,有些公司将上述流程自动化了,但是仍然存在下面这些问题:1)判断节点不可达的机制是否健全和标准。2)如果有多个从节点,怎样保证只有一个从节点晋升为主节点。3)通知客户端更新新主节点的机制是否足够健壮。
Redis Sentinel高可用
当主节点出现故障时,Redis Sentinel能自动完成故障发现和故障转移,并通知应用方,从而实现真正的高可用。
以1个主节点、2个从节点、3个Sentinel节点为例:拓扑结构如下图
 
当主节点出现故障时,从节点复制失败。整个故障转移的流程如下:
- 
主节点故障,导致2个从节点与主节点失去连接,主从复制失败 
- 
每个Sentinel节点通过定期监控发现主节点故障 
- 
多个Sentinel节点对主节点的故障达成一致,选举出Sentinel-3节点作为领导者负责故障转移 
- 
如图所示,Sentinel-3节点完成故障转移流程同1.2节叙述一致,不过是自动完成的 
安装和部署
按照1.3中拓扑结构搭建Redis哨兵。
部署结构
| 角色 | ip | port | 
|---|---|---|
| master | 127.0.0.1 | 6379 | 
| slave-1 | 127.0.0.1 | 6380 | 
| slave-2 | 127.0.0.1 | 6381 | 
| sentinel-1 | 127.0.0.1 | 26379 | 
| sentinel-2 | 127.0.0.1 | 26380 | 
| sentinel-3 | 127.0.0.1 | 26381 | 
部署redis节点
- 
部署主节点 - 配置redis-6379.conf
 1 
 2
 3
 4
 5port 6379 
 daemonize yes
 logfile "6379.log"
 dbfilename "dump-6379.rdb"
 dir "./data/"- 启动
 redis-server redis-6379.conf
- 配置
- 
部署从节点 - 配置redis-6380.conf、redis-6381.conf
 1 
 2
 3
 4
 5
 6port 6380 
 daemonize yes
 logfile "6380.log"
 dbfilename "dump-6380.rdb"
 dir "./data/"
 slaveof 127.0.0.1 6379- 启动
 redis-server redis-6380.conf
- 配置
- 
查看主从关系,使用 info Replication1 
 2
 3
 4
 5
 6
 7
 8
 9
 10
 11
 12
 13
 14
 15
 16
 17
 18
 19
 20
 21
 22
 23
 24
 25
 26
 27
 28
 29
 30
 31
 32
 33
 34
 35➜ ~ redis-cli info Replication 
 # Replication
 role:master
 connected_slaves:2
 slave0:ip=127.0.0.1,port=6380,state=online,offset=434,lag=1
 slave1:ip=127.0.0.1,port=6381,state=online,offset=434,lag=1
 master_replid:993bee493d216cc7bdf38b59d6fc4e0535e94df8
 master_replid2:0000000000000000000000000000000000000000
 master_repl_offset:434
 second_repl_offset:-1
 repl_backlog_active:1
 repl_backlog_size:1048576
 repl_backlog_first_byte_offset:1
 repl_backlog_histlen:434
 ➜ ~ redis-cli -p 6380 info Replication
 # Replication
 role:slave
 master_host:127.0.0.1
 master_port:6379
 master_link_status:up
 master_last_io_seconds_ago:5
 master_sync_in_progress:0
 slave_repl_offset:476
 slave_priority:100
 slave_read_only:1
 connected_slaves:0
 master_replid:993bee493d216cc7bdf38b59d6fc4e0535e94df8
 master_replid2:0000000000000000000000000000000000000000
 master_repl_offset:476
 second_repl_offset:-1
 repl_backlog_active:1
 repl_backlog_size:1048576
 repl_backlog_first_byte_offset:1
 repl_backlog_histlen:476
部署Sentinel节点
- 
配置 redis-sentinel-26379.conf1 
 2
 3
 4
 5
 6
 7
 8port 26379 
 daemonize yes
 logfile "26379.log"
 dir ./data/
 sentinel monitor mymaster 127.0.0.1 6379 2
 sentinel down-after-milliseconds mymaster 30000
 sentinel parallel-syncs mymaster 1
 sentinel failover-timeout mymaster 180000- mymaster:主节点别名
- 127.0.0.1 6379:监视主节点,后面的2表示判断主节点失败至少需要2个Sentinel节点同意。
 
- 
启动Sentinel节点 redis-server redis-sentinel-26379.conf --sentinelredis-sentinel redis-sentinel-26379.conf
- 
确认 1 
 2
 3
 4
 5
 6
 7
 8➜ ~ redis-cli -p 26379 info Sentinel 
 # Sentinel
 sentinel_masters:1
 sentinel_tilt:0
 sentinel_running_scripts:0
 sentinel_scripts_queue_length:0
 sentinel_simulate_failure_flags:0
 master0:name=mymaster,status=ok,address=127.0.0.1:6379,slaves=2,sentinels=1- 由于此时只启动了一个Sentinel节点,所以sentinel=1,全部启动后统计信息:
 1 
 2
 3
 4
 5
 6
 7
 8➜ redis_sentinel redis-cli -p 26381 info Sentinel 
 # Sentinel
 sentinel_masters:1
 sentinel_tilt:0
 sentinel_running_scripts:0
 sentinel_scripts_queue_length:0
 sentinel_simulate_failure_flags:0
 master0:name=mymaster,status=ok,address=127.0.0.1:6379,slaves=2,sentinels=3
生产环境Sentinel节点应该部署在不同的物理机上
Redis Sentinel 节点与Redis 数据节点在配置上没有任何区别。只是添加了一些Sentinel节点对它们的监控
配置优化
Redis安装目录下有一个 sentinel.conf,是默认的Sentinel节点配置文件。下面就以它为例子进行说明:
| 1 | port 26379 | 
配置优化和说明
sentinel monitor
sentinel monitor <master-name> <ip> <port> <quorum>
- master-name:主节点别名
- ip、port:主节点IP、端口
- quorum:判断主节点最终不可达所需票数。选举时,至少有max(quorum, sentinels/2+1)个节点才能选举出领导者
sentinel down-after-milliseconds
sentinel down-after-milliseconds <master-name> <times>
		每个Sentinel节点都要通过定期发送ping命令来判断Redis数据节点和其 余Sentinel节点是否可达,如果超过了down-after-milliseconds配置的时间且没 有有效的回复,则判定节点不可达,<times>(单位为毫秒)就是超时时 间。
	注:虽然此配置项指定 master-name,但是对Sentinel节点、主节点、从节点可达性判断都生效。
sentinel parallel-syncs
sentinel parallel-syncs <master-name> <nums>
 限制故障转移后,每次向新节点发起复制的从节点个数
sentinel failover-timeout
sentinel failover-timeout <master-name> <times>
 通常被解释成故障转移超时时间,实际上它作用于故障转移的各个阶段:
- 如果Redis Sentinel对一个主节点故障转移失败,那么下次再对该主 节点做故障转移的起始时间是failover-timeout的2倍
- 选举出来晋升的从节点执行slaveof no one失败,超过此超时时间则故障转移失败
- 从节点晋升主节点成功后,Sentinel节点还会执行info命令来进行确认,如果此过程超时则故障转移失败
- 其余从节点复制时超过此时间,则故障转移失败。注意即使超过了这个时间,Sentinel节点也会最终配置从 节点去同步最新的主节点。
sentinel auth-pass
sentinel auth-pass <master-name> <password>
 如果Sentinel监控的主节点配置了密码,sentinel auth-pass配置通过添加 主节点的密码,防止Sentinel节点对主节点无法监控。
sentinel notification-script
sentinel notification-script <master-name> <script-path>
		sentinel notification-script的作用是在故障转移期间,当一些警告级别的 Sentinel事件发生(指重要事件,例如-sdown:客观下线、-odown:主观下线)时,会触发对应路径的脚本,并向脚本发送相应的事件参数。
 例如在/opt/redis/scripts/下配置了notification.sh,该脚本会接收每个 Sentinel节点传过来的事件参数,可以利用这些参数作为邮件或者短信报警依据:
| 1 | 
 | 
sentinel client-reconfig-script
sentinel client-reconfig-script <master-name> <script-path>
		sentinel client-reconfig-script的作用是在故障转移结束后,会触发对应路 径的脚本,并向脚本发送故障转移结果的相关参数。和notification-script类 似,可以在/opt/redis/scripts/下配置了client-reconfig.sh,该脚本会接收每个 Sentinel节点传过来的故障转移结果参数,并触发类似短信和邮件报警:
 发送的具体内容如下:
<master-name> <role> <state> <from-ip> <from-port> <to-ip> <to-port>
注:
- <script-path>必须有可执行权限。
- <script-path>开头必须包含shell脚本头(例如#!/bin/sh),否则事件发生时Redis将无法执行脚本产生如下错误
- Redis规定脚本的最大执行时间不能超过60秒,超过后脚本将被杀掉。
- 如果shell脚本以exit 1结束,那么脚本稍后重试执行。如果以exit 2或者更高的值结束,那么脚本不会重试。正常返回值是exit 0。
- 如果需要运维的Redis Sentinel比较多,建议不要使用这种脚本的形式来进行通知,这样会增加部署的成本
监控多个主节点
配置如下
| 1 | sentinel monitor master-business-1 10.10.xx.1 6379 2 | 
调整配置
sentinel set <param> <value>
| 参数 | 使用方法 | 
|---|---|
| quorum | sentinel set mymaster quorum 2 | 
| down-after-milliseconds | sentinel set mymaster down-after-milliseconds 30000 | 
| failover-timeout | sentinel set mymaster failover-timeout 360000 | 
| parallel-syncs | sentinel set mymaster parallel-syncs 2 | 
| notification-script | sentinel set mymaster notification-script /opt/xx.sh | 
| client-reconfig-script | sentinel set mymaster client-reconfig-script /opt/yy.sh | 
| auth-pass | sentinel set mymaster auth-pass masterPassword | 
有几点需要注意:
- sentinel set命令只对当前Sentinel节点有效。
- sentinel set命令如果执行成功会立即刷新配置文件,这点和Redis普 通数据节点设置配置需要执行config rewrite刷新到配置文件不同。
- 建议所有Sentinel节点的配置尽可能一致,这样在故障发现和转移时 比较容易达成一致。
- 表9中为sentinel set支持的参数,具体可以参考源码中的sentinel.c的 sentinelSetCommand函数。
- Sentinel对外不支持config命令。
部署技巧
- 
Sentinel节点不应该部署在一台物理“机器”上 
- 
部署至少三个且奇数个的Sentinel节点 领导者选举需要至少一半加一个节点,保证判断准确的情况下,至少3个,奇数相对于偶数节省一个Sentinel节点。 
- 
只有一套Sentinel,还是每个主节点配置一套Sentinel? 如果Sentinel节点集合监控的是同一个业务的多个主节点集合,那么使用方案一。否则一般建议采用方案二。 
API
sentinel masters
 展示所有被监控的主节点状态以及相关的统计信息
sentinel master <master name>
		展示指定<master name>的主节点状态以及相关的统计信息
sentinel slaves <master name>
		展示指定<master name>的从节点状态以及相关的统计信息
sentinel sentinels <master name>
		展示指定<master name>的Sentinel节点集合(不包含当前Sentinel节点)
sentinel get-master-addr-by-name <master name>
		返回指定<master name>主节点的IP地址和端口
sentinel reset <pattern>
		当前Sentinel节点对符合<pattern>(通配符风格)主节点的配置进行重 置,包含清除主节点的相关状态(例如故障转移),重新发现从节点和 Sentinel节点
sentinel failover <master name>
		对指定<master name>主节点进行强制故障转移(没有和其他Sentinel节 点“协商”),当故障转移完成后,其他Sentinel节点按照故障转移的结果更 新自身配置,这个命令在Redis Sentinel的日常运维中非常有用
sentinel ckquorum <master name>
		检测当前可达的Sentinel节点总数是否达到<quorum>的个数。例如 quorum=3,而当前可达的Sentinel节点个数为2个,那么将无法进行故障转 移,Redis Sentinel的高可用特性也将失去
sentinel flushconfig
 将Sentinel节点的配置强制刷到磁盘上,这个命令Sentinel节点自身用得 比较多,对于开发和运维人员只有当外部原因(例如磁盘损坏)造成配置文 件损坏或者丢失时,这个命令是很有用的。
sentinel remove <master name>
		取消当前Sentinel节点对于指定<master name>主节点的监控
sentinel monitor<master name><ip><port><quorum>
 与配置文件中的命令相同
sentinel set<master name>
 修改Sentinel配置
sentinel is-master-down-by-addr
 Sentinel节点之间用来交换对主节点是否下线的判断,根据参数的不同,还可以作为Sentinel领导者选举的通信方式。具体细节后面介绍。
客户端连接
Redis Sentinel的客户端
 编程语言的客户端,如果需要正确地连接Redis Sentinel,必须有Sentinel节点集合和 masterName两个参数。
Redis Sentinel客户端基本实现原理
基本步骤如下:
- 遍历Sentinel节点集合获取一个可用的Sentinel节点,后面会介绍 Sentinel节点之间可以共享数据,所以从任意一个Sentinel节点获取主节点信息都是可以的
- 通过sentinel get-master-addr-by-name master-name这个API来获取对应主节点的相关信息
- 验证当前获取的“主节点”是真正的主节点,这样做的目的是为了防止故障转移期间主节点的变化
- 保持和Sentinel节点集合的“联系”,时刻获取关于主节点的相关“信息”
Java操作Redis Sentinel
连接池初始化
| 1 | public JedisSentinelPool(String masterName, Set<String> sentinels, | 
- masterName——主节点名
- sentinels——Sentinel节点集合
- poolConfig——common-pool连接池配置
- connectTimeout——连接超时
- soTimeout——读写超时
- password——主节点密码
- database——当前数据库索引
- clientName——客户端名
连接池初始化重要函数#initSentinels
| 1 | private HostAndPort initSentinels(Set<String> sentinels, final String masterName) { // 主节点 | 
故障转移监听函数:
| 1 | Jedis sentinelJedis = new Jedis(sentinelHost, sentinelPort); | 
实现原理
三个定时监控任务
- 
每隔10秒,每个Sentinel节点会向主节点和从节点发送info命令获取最新的拓扑结构,作用如下: - 通过向主节点执行info命令,获取从节点的信息,这也是为什么 Sentinel节点不需要显式配置监控从节点
- 当有新的从节点加入时都可以立刻感知出来
- 节点不可达或者故障转移后,可以通过info命令实时更新节点拓扑信息
 
- 
每隔2秒,每个Sentinel节点会向Redis数据节点的__sentinel__:hello 频道上发送该Sentinel节点对于主节点的判断以及当前Sentinel节点的信息,时每个Sentinel节点也会订阅该频道,来了解其他 Sentinel节点以及它们对主节点的判断,所以这个定时任务可以完成以下两个工作: - 发现新的Sentinel节点:通过订阅主节点的__sentinel__:hello了解其他 的Sentinel节点信息,如果是新加入的Sentinel节点,将该Sentinel节点信息保 存起来,并与该Sentinel节点创建连接
- Sentinel节点之间交换主节点的状态,作为后面客观下线以及领导者选举的依据。
 
- 
每隔1秒,每个Sentinel节点会向主节点、从节点、其余Sentinel节点 发送一条ping命令做一次心跳检测 
主观下线和客观下线
- 
主观下线  每个Sentinel节点向主节点、从节点、其他Sentinel节点发送ping命令时,如果超过 down-after-milliseconds时间没有进行有效回复,Sentinel节点就会对该节点做失败 判定,这个行为叫做主观下线。
- 
客观下线  当Sentinel主观下线的节点是主节点时,该Sentinel节点会通过sentinel is- master-down-by-addr命令向其他Sentinel节点询问对主节点的判断,当超过 <quorum>个数,Sentinel节点认为主节点确实有问题,这时该Sentinel节点会 做出客观下线的决定 
从节点、Sentinel节点在主观下线后,没有后续的故障转移操作。
这里需要介绍一下
sentinel is-master-down-by-addr命令:
sentinel is-master-down-by-addr <ip> <port> <current_epoch> <runid>
- current-epoch:当前配置纪元
- runid:参数有两种类型,不同类型决定了此API作用的不同
- runid = "*"时,作用是Sentinel节点直接交换对主节点下线的判定
- 当runid等于当前Sentinel节点的runid时,作用是当前Sentinel节点希望目标Sentinel节点同意自己成为领导者的请求
领导者Sentinel节点选举
 Redis使用了Raft算法实 现领导者选举,具体流程如下:
- 每个在线的Sentinel节点都有资格成为领导者,当它确认主节点主观 下线时候,会向其他Sentinel节点发送sentinel is-master-down-by-addr命令, 要求将自己设置为领导者
- 收到命令的Sentinel节点,如果没有同意过其他Sentinel节点的sentinel is-master-down-by-addr命令,将同意该请求,否则拒绝
- 如果该Sentinel节点发现自己的票数已经大于等于max(quorum, num(sentinels)/2+1),那么它将成为领导者
- 如果此过程没有选举出领导者,将进入下一次选举
故障转移
 领导者选举处的Sentinel节点负责故障转移,具体步骤如下:
在从节点列表中选出一个节点作为新的主节点
- 过滤:主观下线(断线),5s内没回复Sentinel的ping响应,与主节点失联超过down-after-milliseconds*10秒
- 选择slave-priority(优先级)最高的从节点列表,如果存在则返回,不存在则继续
- 选择复制偏移量最大的从节点,如果存在则返回,不存在继续
- 选择runId最小的从节点
晋升主节点
		Sentinel对选中从节点执行slaveof no one使其晋升为主节点
复制新主节点
 Sentinel领导者节点会向剩余的从节点发送命令,让它们成为新主节 点的从节点,复制规则和parallel-syncs参数有关
原主节点处理
 Sentinel节点集合会将原来的主节点更新为从节点,并保持着对其关注,当其恢复后命令它去复制新的主节点