当前位置: 首页 > news >正文

Redis:哨兵(Sentinel)

🌈 个人主页:Zfox_
🔥 系列专栏:Redis

Redis的主从复制模式下,⼀旦主节点由于故障不能提供服务,需要⼈⼯进⾏主从切换,同时⼤量的客户端需要被通知切换到新的主节点上,对于上了⼀定规模的应⽤来说,这种⽅案是⽆法接受的,于是Redis从2.8开始提供了RedisSentinel(哨兵)加个来解决这个问题。本章主要内容如下:

  • RedisSentinel的概念
  • RedisSentinel的部署
  • RedisSentinel命令
  • RedisSentinel客户端
  • RedisSentinel实现原理

在之前的章节中,我们说了给⼀个⽼师配了⼏个助教.如果⽼师有事请假了⼏天,助教⼜不能上课的话,学⽣们的学习进度就会受到影响.哨兵就是⽤来解决这个问题的.

🔥 基本概念

由于对Redis的许多概念都有不同的名词解释,所以在介绍RedisSentinel之前,先对⼏个名词概念进⾏必要的说明,如表所⽰。
在这里插入图片描述

RedisSentinel是Redis的⾼可⽤实现⽅案,在实际的⽣产环境中,对提⾼整个系统的⾼可⽤是⾮常有帮助的,本节⾸先整体梳理主从复制模式下故障处理可能产⽣的问题,⽽后引出⾼可⽤的概念,最后重点分析RedisSentinel的基本架构、优势,以及是如何实现⾼可⽤的。

🦋 主从复制的问题

Redis的主从复制模式可以将主节点的数据改变同步给从节点,这样从节点就可以起到两个作⽤:第⼀,作为主节点的⼀个备份,⼀旦主节点出了故障不可达的情况,从节点可以作为后备“顶”上来,并且保证数据尽量不丢失(主从复制表现为最终⼀致性)。第⼆,从节点可以分担主节点上的读压⼒,让主节点只承担写请求的处理,将所有的读请求负载均衡到各个从节点上。

但是主从复制模式并不是万能的,它同样遗留下以下⼏个问题:

  1. 主节点发⽣故障时,进⾏主备切换的过程是复杂的,需要完全的⼈⼯参与,导致故障恢复时间⽆法保障。
  2. 主节点可以将读压⼒分散出去,但写压⼒/存储压⼒是⽆法被分担的,还是受到单机的限制。

其中第⼀个问题是⾼可⽤问题,即Redis哨兵主要解决的问题。第⼆个问题是属于存储分布式的问题,留给Redis集群去解决,本章我们集中讨论第⼀个问题。

🦋 ⼈⼯恢复主节点故障

Redis主从复制模式下,主节点故障后需要进⾏的⼈⼯⼯作是⽐较繁琐的,我们在图中⼤致展⽰了整体过程。

Redis主节点故障后需要进⾏的操作

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

1)运维⼈员通过监控系统,发现Redis主节点故障宕机。
2)运维⼈员从所有节点中,选择⼀个(此处选择了slave1)执⾏slaveofnoone,使其作为新的主节点。
3)运维⼈员让剩余从节点(此处为slave2)执⾏slaveof{newMasterIp}{newMasterPort}从新主节点开始数据同步。
4)更新应⽤⽅连接的主节点信息到{newMasterIp}{newMasterPort}。
5)如果原来的主节点恢复,执⾏slaveof{newMasterIp}{newMasterPort}让其成为⼀个从节点。

上述过程可以看到基本需要⼈⼯介⼊,⽆法被认为架构是⾼可⽤的。⽽这就是RedisSentinel所要做的。

🦋 哨兵⾃动恢复主节点故障

当主节点出现故障时,RedisSentinel能⾃动完成故障发现和故障转移,并通知应⽤⽅,从⽽实现真正的⾼可⽤。

RedisSentinel是⼀个分布式架构,其中包含若⼲个Sentinel节点和Redis数据节点,每个Sentinel节点会对数据节点和其余Sentinel节点进⾏监控,当它发现节点不可达时,会对节点做下线表⽰。如果下线的是主节点,它还会和其他的Sentinel节点进⾏“协商”,当⼤多数Sentinel节点对主节点不可达这个结论达成共识之后,它们会在内部“选举”出⼀个领导节点来完成⾃动故障转移的⼯作,同时将这个变化实时通知给Redis应⽤⽅。整个过程是完全⾃动的,不需要⼈⼯介⼊。整体的架构如图所⽰。
在这里插入图片描述

RedisSentinel架构

在这里插入图片描述

RedisSentinel相⽐于主从复制模式是多了若⼲(建议保持奇数)Sentinel节点⽤于实现监控数据节点,哨兵节点会定期监控所有节点(包含数据节点和其他哨兵节点)。针对主节点故障的情况,故障转移流程⼤致如下:

  1. 主节点故障,从节点同步连接中断,主从复制停⽌。
  2. 哨兵节点通过定期监控发现主节点出现故障。哨兵节点与其他哨兵节点进⾏协商,达成多数认同主节点故障的共识。这步主要是防⽌该情况:出故障的不是主节点,⽽是发现故障的哨兵节点,该情况经常发⽣于哨兵节点的⽹络被孤⽴的场景下。
  3. 哨兵节点之间使⽤Raft算法选举出⼀个领导⻆⾊,由该节点负责后续的故障转移⼯作。
  4. 哨兵领导者开始执⾏故障转移:从节点中选择⼀个作为新主节点;让其他从节点同步新主节点;通知应⽤层转移到新主节点。
    在这里插入图片描述

通过上⾯的介绍,可以看出RedisSentinel具有以下⼏个功能:

  • 监控 :Sentinel节点会定期检测Redis数据节点、其余哨兵节点是否可达。(心跳检测)
  • 故障转移 :实现从节点晋升(promotion)为主节点并维护后续正确的主从关系。
  • 通知 :Sentinel节点会将故障转移的结果通知给应⽤⽅。

🔥 安装部署(基于docker)

🦋 准备⼯作

1)安装docker和docker-compose

Docker安装

docker-compose的安装

# ubuntu
apt install docker-compose# centos
yum install docker-compose

2)停⽌之前的redis- server

# 停⽌ redis-server
service redis-server stop# 停⽌ redis-sentinel 如果已经有的话.
service redis-sentinel stop

3)使⽤docker获取redis镜像

docker pull redis:5.0.9

配置可用镜像源

vim /etc/docker/daemon.json
{"registry-mirrors": ["https://docker.m.daocloud.io","https://dockerhub.timeweb.cloud","https://huecker.io"]
}

🦋 编排redis主从节点

1)编写 docker-compose.yml
创建 /root/redis/docker-compose.yml ,同时cd到yml所在⽬录中.
注意:docker中可以通过容器名字,作为ip地址,进⾏相互之间的访问.

version: '3.7'
services:master:image: 'redis:5.0.9'container_name: redis-masterrestart: alwayscommand: redis-server --appendonly yesports:- 6379:6379slave1:image: 'redis:5.0.9'container_name: redis-slave1restart: alwayscommand: redis-server --appendonly yes --slaveof redis-master 6379ports:- 6380:6379slave2:image: 'redis:5.0.9'container_name: redis-slave2restart: alwayscommand: redis-server --appendonly yes --slaveof redis-master 6379ports:- 6381:6379

也可以直接在windows上使⽤vscode编辑好yml,然后在上传到linux上.

2)启动所有容器

docker-compose up - d

如果启动后发现前⾯的配置有误,需要重新操作,使⽤ docker-compose down 即可停⽌并删除刚才创建好的容器.

3)查看运⾏⽇志

docker-compose logs

上述操作必须保证⼯作⽬录在yml的同级⽬录中,才能⼯作.
4)验证
连接主节点

redis-cli -p 6379127.0.0.1:6379> info replication
# Replication
role:master
connected_slaves:2
slave0:ip=172.22.0.3,port=6379,state=online,offset=348,lag=1
slave1:ip=172.22.0.4,port=6379,state=online,offset=348,lag=1
master_replid:a22196b425ab42ddfd222cc5a64d53acffeb3e63
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:348
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:348

连接从节点

redis-cli -p 6380127.0.0.1:6380> info replication
# Replication
role:slave
master_host:redis- master
master_port:6379
master_link_status:up
master_last_io_seconds_ago:10
master_sync_in_progress:0
slave_repl_offset:446
slave_priority:100
slave_read_only:1
connected_slaves:0
master_replid:a22196b425ab42ddfd222cc5a64d53acffeb3e63
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:446
second_repl_offset:- 1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:446
redis-cli -p 6381
127.0.0.1:6381> info replication
# Replication
role:slave
master_host:redis- master
master_port:6379
master_link_status:up
master_last_io_seconds_ago:7
master_sync_in_progress:0
slave_repl_offset:516
slave_priority:100
slave_read_only:1
connected_slaves:0
master_replid:a22196b425ab42ddfd222cc5a64d53acffeb3e63
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:516
second_repl_offset:- 1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:516

🦋 编排redis-sentinel节点

也可以把 redis-sentinel 放到和上⾯的redis的同⼀个yml中进⾏容器编排.此处分成两组,主要是为了两⽅⾯:

  • 观察⽇志⽅便
  • 确保redis主从节点启动之后才启动 redis-sentinel.如果先启动 redis-sentinel 的话,可能触发额外的选举过程,混淆视听.(不是说先启动哨兵不⾏,⽽是观察的结果可能存在⼀定随机性).

1)编写 docker-compose.yml
创建 /root/redis-sentinel/docker-compose.yml ,同时cd到yml所在⽬录中.
**注意:**每个⽬录中只能存在⼀个docker-compose.yml⽂件.

version: '3.7'
services:sentinel1:image: 'redis:5.0.9'container_name: redis-sentinel-1restart: alwayscommand: redis-sentinel /etc/redis/sentinel.confvolumes:- ./sentinel1.conf:/etc/redis/sentinel.confports:- 26379:26379sentinel2:image: 'redis:5.0.9'container_name: redis-sentinel-2restart: alwayscommand: redis-sentinel /etc/redis/sentinel.confvolumes:- ./sentinel2.conf:/etc/redis/sentinel.confports:- 26380:26379sentinel3:image: 'redis:5.0.9'container_name: redis-sentinel-3restart: alwayscommand: redis-sentinel /etc/redis/sentinel.confvolumes:- ./sentinel3.conf:/etc/redis/sentinel.confports:- 26381:26379

也可以直接在windows上使⽤vscode编辑好yml,然后在上传到linux上.

2)创建配置⽂件
创建 sentinel1.conf sentinel2.conf sentinel3.conf .三份⽂件的内容是完全相同的.
都放到 /root/redis-sentinel/ ⽬录中.

bind 0.0.0.0
port 26379
sentinel monitor redis-master redis-master 6379 2
sentinel down-after-milliseconds redis-master 1000

理解 sentinel monitor

sentinel monitor 主节点名 主节点ip 主节点端⼝ 法定票数
  • 主节点名,这个是哨兵内部⾃⼰起的名字.
  • 主节点ip,部署redis-master的设备ip.此处由于是使⽤docker,可以直接写docker的容器名,会被⾃动DNS成对应的容器ip
  • 主节点端⼝,不解释
  • 法定票数,哨兵需要判定主节点是否挂了.但是有的时候可能因为特殊情况,⽐如主节点仍然⼯作正常,但是哨兵节点⾃⼰⽹络出问题了,⽆法访问到主节点了.此时就可能会使该哨兵节点认为主节点下线,出现误判.使⽤投票的⽅式来确定主节点是否真的挂了是更稳妥的做法.需要多个哨兵都认为主节点挂了,票数>=法定票数之后,才会真的认为主节点是挂了

理解 sentinel down-after-milliseconds

  • 主节点和哨兵之间通过⼼跳包来进⾏沟通.如果⼼跳包在指定的时间内还没回来,就视为是节点出现故障.

既然内容相同,为啥要创建多份配置⽂件?

redis-sentinel 在运⾏中可能会对配置进⾏rewrite,修改⽂件内容.如果⽤⼀份⽂件,就可能出现修改混乱的情况.

3)启动所有容器

docker-compose up -d

如果启动后发现前⾯的配置有误,需要重新操作,使⽤ docker-compose down 即可停⽌并删除刚才创建好的容器.

4)查看运⾏⽇志

docker-compose logs

在这里插入图片描述

上述操作必须保证⼯作⽬录在yml的同级⽬录中,才能⼯作.

可以看到,哨兵节点已经通过主节点,认识到了对应的从节点.

5)观察 redis-sentinel 的配置rewrite
再次打开哨兵的配置⽂件,发现⽂件内容已经被⾃动修改了.

bind 0.0.0.0
port 26379
sentinel myid 4d2d562860b4cdd478e56494a01e5c787246b6aa
sentinel deny- scripts- reconfig yes
# Generated by CONFIG REWRITE
dir "/data"
sentinel monitor redis- master 172.22.0.4 6379 2
sentinel down- after- milliseconds redis- master 1000
sentinel config- epoch redis- master 1
sentinel leader- epoch redis- master 1
sentinel known- replica redis- master 172.22.0.2 6379
sentinel known- replica redis- master 172.22.0.3 6379
sentinel known- sentinel redis- master 172.22.0.7 26379
f718caed536d178f5ea6d1316d09407cfae43dd2
sentinel known- sentinel redis- master 172.22.0.5 26379
2ab6de82279bb77f8397c309d36238f51273e80a
sentinel current- epoch 1

# Generated by CONFIG REWRITE 这⾥的内容就是⾃动修改的.

对⽐这三份⽂件,可以看到配置内容是存在差异的.

🔥 重新选举

🦋 redis-master宕机之后

⼿动把 redis- master ⼲掉

docker stop redis-master

观察哨兵的⽇志
在这里插入图片描述

可以看到哨兵发现了主节点sdown,进⼀步的由于主节点宕机得票达到 3/2 ,达到法定得票,于是 master被判定为odown.

  • 主观下线(SubjectivelyDown,SDown):哨兵感知到主节点没⼼跳了.判定为主观下线.
  • 客观下线(ObjectivelyDown,ODown):多个哨兵达成⼀致意⻅,才能认为master确实下线了.接下来,哨兵们挑选出了⼀个新的master.在上图中,是 172.22.04:6379 这个节点.
    在这里插入图片描述

此时,对于Redis来说仍然是可以正常使⽤的.

🦋 redis-master重启之后

⼿动把 redis-master 启动起来

docker start redis-master

观察哨兵⽇志
可以看到刚才新启动的 redis-master 被当成了slave

在这里插入图片描述

使⽤redis-cli也可以进⼀步的验证这⼀点

127.0.0.1:6379> info replication
# Replication
role:slave
master_host:172.22.0.4
master_port:6379
master_link_status:up
master_last_io_seconds_ago:0
master_sync_in_progress:0
slave_repl_offset:324475
slave_priority:100
slave_read_only:1
connected_slaves:0
master_replid:ececc285a2892fba157318c77ebe1409f9c2254e
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:324475
second_repl_offset:- 1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:318295
repl_backlog_histlen:6181

结论

  • Redis主节点如果宕机,哨兵会把其中的⼀个从节点,提拔成主节点.
  • 当之前的Redis主节点重启之后,这个主节点被加⼊到哨兵的监控中,但是只会被作为从节点使⽤.

🔥 选举原理

假定当前环境如上⽅介绍,三个哨兵 (sentenal1,sentenal2,sentenal3),⼀个主节点(redis-master),两个从节点(redis-slave1,redis-slave2).
当主节点出现故障,就会触发重新⼀系列过程.

在这里插入图片描述

🦋 1)主观下线

当redis-master宕机,此时redis-master和三个哨兵之间的⼼跳包就没有了.

此时,站在三个哨兵的⻆度来看,redis-master出现严重故障.因此三个哨兵均会把redis-master判定为主观下线(SDown)

🦋 2)客观下线

此时,哨兵sentenal1,sentenal2,sentenal3均会对主节点故障这件事情进⾏投票.当故障得票数>=配置的法定票数之后,

sentinel monitor redis-master 172.22.0.4 6379 2

在这个地⽅配置的2,即为法定票数

此时意味着redis-master故障这个事情被做实了.此时触发客观下线(ODown)

🦋 3)选举出哨兵的leader

接下来需要哨兵把剩余的slave中挑选出⼀个新的master.这个⼯作不需要所有的哨兵都参与.只需要选出个代表(称为leader),由leader负责进⾏slave升级到master的提拔过程.

这个选举的过程涉及到 Raft 算法

假定⼀共三个哨兵节点,S1,S2,S3

  1. 每个哨兵节点都给其他所有哨兵节点,发起⼀个"拉票请求".(S1->S2,S1->S3,S2->S1,S2->S3, S3->S1,S3->S2)
  2. 收到拉票请求的节点,会回复⼀个"投票响应".响应的结果有两种可能,投or不投.

⽐如S1给S2发了个投票请求,S2就会给S1返回投票响应.
到底S2是否要投S1呢?取决于S2是否给别⼈投过票了.(每个哨兵只有⼀票).
如果S2没有给别⼈投过票,换⽽⾔之,S1是第⼀个向S2拉票的,那么S2就会投S1.否则则不投.

  1. ⼀轮投票完成之后,发现得票超过半数的节点,⾃动成为leader.

如果出现平票的情况(S1投S2,S2投S3,S3投S1,每⼈⼀票),就重新再投⼀次即可.
这也是为啥建议哨兵节点设置成奇数个的原因.如果是偶数个,则增⼤了平票的概率,带来不必要的开销.

  1. leader节点负责挑选⼀个slave成为新的master.当其他的sentenal发现新的master出现了,就说明选举结束了.

简⽽⾔之,Raft算法的核⼼就是"先下⼿为强".谁率先发出了拉票请求,谁就有更⼤的概率成为leader.

这⾥的决定因素成了"⽹络延时".⽹络延时本⾝就带有⼀定随机性.

具体选出的哪个节点是leader,这个不重要,重要的是能选出⼀个节点即可.

🦋 4)leader挑选出合适的slave成为新的master

挑选规则:

  1. ⽐较优先级.优先级⾼ (数值⼩的) 的上位.优先级是配置⽂件中的配置项( slave-priority 或者 replica-priority ).
  2. ⽐较 replication offset 谁复制的数据多,⾼的上位.
  3. ⽐较 run id ,谁的id⼩,谁上位.

当某个slave节点被指定为master之后,

  1. leader指定该节点执⾏ slave no one ,成为master
  2. leader指定剩余的slave节点,都依附于这个新master

🔥 ⼩结

上述过程,都是"⽆⼈值守",Redis⾃动完成的.这样做就解决了主节点宕机之后需要⼈⼯⼲预的问题, 提⾼了系统的稳定性和可⽤性.

⼀些注意事项:

  • 哨兵节点不能只有⼀个.否则哨兵节点挂了也会影响系统可⽤性.
  • 哨兵节点最好是奇数个.⽅便选举leader,得票更容易超过半数.
  • 哨兵节点不负责存储数据.仍然是redis主从节点负责存储.
  • 哨兵+主从复制解决的问题是"提⾼可⽤性",不能解决"数据极端情况下写丢失"的问题.
  • 哨兵+主从复制不能提⾼数据的存储容量.当我们需要存的数据接近或者超过机器的物理内存,这样
    的结构就难以胜任了.

为了能存储更多的数据,就引⼊了集群.

🔥 共勉

😋 以上就是我对 Redis:哨兵(Sentinel) 的理解, 觉得这篇博客对你有帮助的,可以点赞收藏关注支持一波~ 😉
在这里插入图片描述

http://www.dtcms.com/a/284867.html

相关文章:

  • MySQL的索引操作及底层结构浅析
  • 产品经理如何描述用户故事
  • modelscope ProxyError: HTTPSConnectionPool(host=‘www.modelscope.cn‘, port=443)
  • 作物长势产量预测yyds!遥感数据同化DSSAT模型,区域精准农业就靠它!
  • 27、鸿蒙Harmony Next开发:ArkTS并发(Promise和async/await和多线程并发TaskPool和Worker的使用)
  • Hyperledger Fabric:构建企业区块链网络的实践指南
  • 【实时Linux实战系列】硬件中断与实时性
  • 什么是GEO 和 SEO ?GEO 与 SEO 有什么区别?如何快速入门GEO?
  • 解决宝塔面板SSL报错 - AttributeError: module ‘acme_v2‘ has no attribute ‘acme_v2‘
  • 搜广推校招面经九十四
  • 神经网络构建
  • STM32之土壤湿度传感器模块
  • Toward the unification of kselftests and KUnit
  • MYSQL-进阶-锁
  • 离散与组合数学 杂记
  • 电子制造企业排产优化实战:用JVS智能排产的排产策略实现交期100%可控
  • OCR 与 Agent:智能协作的 “黄金搭档”
  • Spring Boot整合阿里云OSS:企业级文件存储最佳实践
  • ZYNQ UltraScale+ MPSoC芯片 pcie switch级联ssd高速存储方案
  • 基于springboot+vue+mysql平台的医疗病历交互系统(源码+论文)
  • 解析:视频创作中常见版权问题
  • JAVA原生实现SOAP POST调用
  • 【深度学习】神经网络过拟合与欠拟合-part5
  • 尚庭公寓----------分页查询
  • 外贸ERP软件有哪些?八大热门erp软件功能测评
  • FOC算法中SIMULINK一些常用模块(3)自动计算电机参数
  • OpenBayes 一周速览丨字节EX-4D上线,实现单目视频到自由视角生成;GLM-4.1V-9B-Thinking开源,10B参数比肩Qwen系列
  • JPA 与 MyBatis-Plus 数据库自增主键实现方案
  • TDengine 的可视化数据库操作工具 taosExplorer(安装包自带)
  • 从虚拟大脑到世界行者:具身智能与机器人控制基础