Redis集群(二)

  • Post author:
  • Post category:其他



  1. 节点通信


    1.1 通信流程

    在分布式存储中需要提供维护节点元数据信息的机制,所谓元数据是指:节点负责哪些数据,是否出现故障等状态信息,Redis 集群采用 Gossip(流言)协议, Gossip 协议工作原理就是节点彼此不断通信交换信息,一段时间后所有的节点都会知道集群完整的信息,这种方式类似流言传播
1. 集群中的每个节点都会单独开辟一个 TCP 通道,用于节点之间彼此通信,通信端口号在基础端口上加10000。 2. 每个节点在固定周期内通过特定规则选择几个节点发送 ping 消息。
3. 接收到 ping 消息的节点用 pong 消息作为响应。

集群中每个节点通过一定规则挑选要通信的节点,每个节点可能知道全部节点,也可能仅知道部分节点,只要这些节点彼此可以正常通信,最终它们会达到一致的 状态。当节点出故障、新节点加入、主从角色变化、槽信息变更等事件发生时,通过不断的 ping/pong 消息通信,经过一段时间后所有的节点都会知道整个集群 全部节点的最新状态,从而达到集群状态同步的目的。

1.2 Gossip消息

Gossip协议的主要职责就是信息交换。信息交换的载体就是节点彼此发送的Gossip消息,了解这些消息有助于我们理解集群如何完成信息交换。

Gossip消息可分为:ping消息,pong消息,meet消息,fail消息等;

  • meet消息:用于通知新节点加人。消息发送者通知接收者加人到当前集群,meet消息通信正常完成后,接收节点会加人到集群中并进行周期性的ping、pong消自

    交换。
  • ping消息:集群内交换最频繁的消息,集群内每个节点每秒向多个其他节点发送ping消息,用于检测节点是否在线和交换彼此状态信息。ping消息发送封装了 自身节点和部分其他节点的状态数据。
  • pong消息:当接收到ping、 meet消息时,作为响应消息回复给发送方确认消息正常通信。pong消息内部封装了自身状态数据。节点也可以向集群内广播自身 的pong消息来通知整个集群对自身状态进行更新。
  • fail消息:当节点判定集群内另一个节点下线时,会向集群内广播一个fail消息,其他节点接收到fail消息之后把对应节点更新为下线状态。.

    在这里插入图片描述

    所有门店消息格式划分为:消息头和消息体。消息头包含发送节点自身状态数据,接收节点根据消息头就可以获取到发送节点的相关数据,结构如下: cluster.h
typedef struct {
	char sig[4]; /* 信号的标识. */
	uint32_t totlen; /* 信号的长度 */
	uint16_t ver;/* 版本. */
	uint16_t port;/* tcp端口 */
	uint16_t type;/* 消息类型,用于区分meet,ping,pong */
	uint16_t count;/* 消息体包含的节点数量meet,ping,pong. */
	uint64_t currentEpoch; /* 当前发送节点的配置纪元. */ uint64_t configEpoch; /* 从节点的主节点配置纪元. */ uint64_t offset; /* 复制偏移量. */
	char sender[CLUSTER_NAMELEN]; /* 发送节点的nodeId */
	unsigned char myslots[CLUSTER_SLOTS/8]; /* 发送节点负责的槽信息 */
	char slaveof[CLUSTER_NAMELEN]; /* 如果发送节点是从节点,记录对应主节点的nodeId */ char myip[NET_IP_STR_LEN]; /* Sender IP, if not all zeroed. */
	char notused1[34]; /* 34 bytes reserved for future usage. */
	uint16_t cport; /* Sender TCP cluster bus port */
	uint16_t flags; /* 发送节点标识,区分主从是否下线 */
	unsigned char state; /* 发送节点所处的集群状态 */
	unsigned char mflags[3]; /* Message flags: CLUSTERMSG_FLAG[012]_... */
	union clusterMsgData data;
} clusterMsg;

集群内所有的消息都采用相同的消息结构clusterMsg,它包含了发送节点关键信息,如节点id、槽映射、节点标识(角色,是否下线);而消息体在Redis内部采用 clusterMsgData结构

cluster.h

union clusterMsgData {
	/* PING, MEET and PONG */ 
	struct {
		/* Array of N clusterMsgDataGossip structures */
		clusterMsgDataGossip gossip[1]; 
	} ping;
	/* 此处省略代码 */ 
}
	typedef struct {
		char nodename[CLUSTER_NAMELEN];
		uint32_t ping_sent;
		uint32_t pong_received;
		char ip[NET_IP_STR_LEN]; /* IP address last time it was seen */
	  	uint16_t port; uint16_t cport; uint16_t flags; uint32_t notused1;
	} clusterMsgDataGossip;

消息体clusterMsgData定义发送消息的数据,其中ping、meet、pong都采用clusterMsgDataGossi作为消息体用于信息的交换

如下为ping、meet消息时,接收节点会解析消息内容并根据自身的识别情况作出相应处理的流程图

在这里插入图片描述

在这里插入图片描述

接收节点收到ping/meet消息时,执行解析消息头和消息体流程:

  • 解析消息头过程:消息头包含了发送节点的信息,如果发送节点是新节点且消息是meet类型,则加入到本地节点列表;如果是已知节点,则尝试更新发送节点 的状态,如槽映射关系,主从角色等状态。
  • 解析消息体过程:如果消息体的clusterMsgDataGossip数组包含的节点是新节点,则尝试发起与新节点的meet握手流程;如果是已知节点,则根据 clusterMsgDataGossip中的flags字段判断该节点是否下线,用于故障转移

消息处理完后回复pong消息,内容同样包含消息头和消息体,发送节点接收到回复的pong消息后,采用类似的流程解析处理消息并更新与接收节点最后通信时 间,完成一次消息通信。


1.3 为什么redis选择槽的个数为16383个


对于客户端请求的key,根据公式HASH_SLOT=CRC16(key) mod 16384,计算出映射到哪个分片上,然后Redis会去相应的节点进行操作!

那大家思考过,为什么有16384个槽么?

ps:CRC16算法产生的hash值有16bit,该算法可以产生2^16-=65536个值。换句话说,值是分布在0~65535之间。那作者在做mod运算的时候,为什么不 mod65536,而选择mod16384?

这个问题,作者是给出了回答的!地址如下:https://github.com/antirez/redis/issues/2576

在这里插入图片描述

回 顾:

我们回忆一下Redis Cluster的工作原理!

这里要先将节点握手讲清楚。我们让两个redis节点之间进行通信的时候,需要在客户端执行下面一个命令

 127.0.0.1:7000>cluster meet 127.0.0.1:7001

如图

在这里插入图片描述

意思很简单,让7000节点和7001节点知道彼此存在!在握手成功后,连个节点之间会定期发送ping/pong消息,交换数据信息,如下图所示。

在这里插入图片描述

cluster.h

 #define CLUSTERMSG_TYPE_COUNT 10 /* 消息的总数量. 
 */ typedef struct {
	/* ... */
	uint16_t type; /* 消息类型,用于区分meet,ping,pong */ 
	unsigned char myslots[CLUSTER_SLOTS/8]; /* 发送节点负责的槽信息 */ 
	unsigned char mflags[3]; /* 至少有3个节点信息 */
	/* ... */
} clusterMsg;

需知: char 1个字 节字节也叫Byte,是计算机数据的基本存储单位。8bit(位)=1Byte(字节) 1024Byte(字节)=1KB 1024KB=1MB 1024MB=1GB 1024GB=1TB

在消息头中,最占空间的是 myslots[CLUSTER_SLOTS/8]。这块的大小是:16384÷8÷1024=2kb

那在消息体中,会携带一定数量的其他节点信息用于交换。那这个其他节点的信息,到底是几个节点的信息呢?约为集群总节点数量的1/10,至少携带3个节点的信息。


这里的重点是

:节点数量越多,消息体内容越大。消息体大小是10个节点的状态信息约1kb

redis集群内节点,每秒都在发ping消息。规律如下

  • 每秒会随机选取5个节点,找出最久没有通信的节点发送ping消息
  • 每100毫秒(1秒10次)都会扫描本地节点列表,如果发现节点最近一次接受pong消息的时间大于cluster-node-timeout/2 则立刻发送ping消息

    在这里插入图片描述

    因此,每秒单节点发出ping消息数量为


    数量=1+10*num(node.pong_received>cluster_node_timeout/2)


    当槽位为65536时,这块的大小是: 65536 ÷ 8 ÷ 1024 = 8kb 因为每秒钟,redis节点需要发送一定数量的ping消息作为心跳包,如果槽位为65536,这个ping消息的 消息头太大了,浪费带宽

  1. 故障转移与恢复


    2.1 代码启动流程

    server.c
void initServer(void) {
	 /* 代码省略 */
	if (server.cluster_enabled) clusterInit(); 
}

在这个函数中会加载配置并且初始化一些状态指标,监听集群通信端口。除此之外,该函数执行了如下一些回调函数的注册。

  • 集群通信端口建立监听后,注册回调函数clusterAccpeteHandler。当节点之间建立连接时先由该函数进行处理
  • 当节点之间建立连接后,为新建立的连接注册读事件的回调函数clusterReadHandler
  • 当有读时间发生时,当clusterReadHandler读取到一个完整的包体后,调用clusterProcessPacket解析具体的包体。集群之间通信数据包的解析都在改函数内完成

并且有类似哨兵一样的redis时间让我函数serverCron中会调用

int serverCron(){ /* 代码省略 */
	/* Run the Redis Cluster cron. */
	run_with_period(100) {
	if (server.cluster_enabled) clusterCron();
	}
	/* Run the Sentinel timer if we are in sentinel mode. */
	if (server.sentinel_mode) sentinelTimer(); 
}

clusterCron函数执行如下操作。

  • 向其他节点发送meet消息,将其加入集群
  • 每1s会随机选择一个节点发送ping消息
  • 如果一个节点在超时间之内仍然没收到ping包响应,则标记为pfail

还有在每次进入循环之前,会在beforeSleep函数中执行一些操作,如下:

 void beforeSleep(struct aeEventLoop *eventLoop) {
	if (server.cluster_enabled) clusterBeforeSleep();
}

clusterBeforeSleep()函数会执行如下操作

  • 检查主从切换状态,如果需要,执行主从切换相关操作。
  • 更新集群状态,通过检查是否所有slot都有响应的节点提供服务以及是否大部分主服务都是可用状态,来决定集群处于正常状态还是失败状态
  • 刷新集群状态到配置文件中

故障解释

Redis集群自身实现了高可用。高可用首先需要解决集群部分失败的场景:当集群内少导节点出现故障时通过自动故障转移保证集群可以正常对外提供服务。本节介 绍故障转移的细节,分析故障发现和替换故障节点的过程。

故障发现

当集群内某个节点出现问题时,需要通过一-种健壮的方式保证识别出节点是否发生了故障。Redis 集群内节点通过ping/pong消息实现节点通信,消息不但可以传播节点槽信息,还可以传播其他状态如:主从状态、节点故障等。因此故障发现也是通过消息传播机制实现的,主要环节包括:主观下线(pfail)和客观下线(fail)。

  • 主观下线:指某个节点认为另一一个节点不可用,即下线状态,这个状态并不是最终的故障判定,只能代表一个节 点的意见,可能存在误判情况。
  • 客观下线:指标记-一个节点真正的下线,集群内多个节点都认为该节点不可用,从而达成共识的结果。如果是持有槽的主节点故障,需要为该节点进行故障转移。
  • 主观下线

    集群中每个节点都会定期向其他节点发送ping消息,接收节点回复pong消息作为响应。如果在cluster-node- timeout时间内通信一直失败, 则发送节点会认为接收 节点存在故障,把接收节点标记为主观下线(pfail)状态。流程如图下

    在这里插入图片描述
  • 节点a发送ping消息给节点b,如果通信正常将接收到pong消息,节点a更新最近一次与节点b的通信时间。
  • 如果节点a与节点b通信出现问题则断开连接,下次会进行重连。如果直通信失败,则节点a记录的与节点b最后通信时间将无法更新。
  • 节点a内的定时任务检测到与节点b最后通信时间超高cluster-node-timeout时,更新本地对节点b的状态为主观下线(pfail)。

主观下线简单来讲就是,当cluster-note-timeout时间内某节点无法与另一个节点顺利完成ping消息通信时,则将该节点标记为主观下线状态。每个节点内的 clusterState结构都需要保存其他节点信息,用于从自身视角判断其他节点的状态。结构关键属性

通过伪代码诠释:

 <?php
// 节点 
class node {
	public public
	$flags; $ping_sent;
}
// 集群
class cluster {
	/**
	* 节点集合 * @var node */
	public $nodes = [];
	public function __construct() {
	// .. 初始化 
	}
}
class server {
	/**
	* @var cluster */
	protected $cluster;
	protected $cluster_node_timeout; // 当前为主节点
	const CLUSTER_NODE_MYSTER = 1; // 主观 下线
	const CLUSTER_NODE_PFALL = 4;
	public function __construct() {
	$this->cluster = new cluster(); 
	}
	public function clusterCron() {
		// .. 忽略其他代码
		foreach ($node as $key => $this->cluster->nodes) {
		 	if ($node->flags == self::CLUSTER_NODE_MYSTER) {
			continue; // 如果是当前自己跳过 
			}
			$now = time();
			// 自身节点最后一次与该ping通信的时间差
			$delay = $now - $node->ping_sent;
			// 如果通信时间差超过cluster_node_timeout,将该节点编辑为PFALL(主观下线) 
			if ($delay > $this->cluster_node_timeout) {
			$node->flags = self::CLUSTER_NODE_PFALL; 
			}
		}
	}
}
?>

Redis集群对于节点最终是否故障判断非常严谨,只有一个节点认为主观下线并不能准确判断是否故障。多个节点协作完成故障发现的过程叫做客观下线。

  • 客观下线

    当某个节点判断另一个节点主观下线后,相应的节点状态会跟随消息在集群内传播。ping/pong消息的消息体会携带集群1/10的其他节点状态数据,当接收节点发 现消息体中含有主观下线的节点状态时、会在本地找到故障及诶单clusterNode结构,保存到下线报告连接中 clusterNode fail_reportsx

    通过Gossip消息传播,集群内节点不断收集到故障节点的下线报告。当半数以上持有槽的主节点都标记某个节点是主观下线时。触发客观下线流程。

    假设节点a标记节点b为主观下线,一段时间后节点a通过消息把节点b的状态发送到其他节点,当节点c接受到消息并解析出消息体含有节点b的pfail状态时,会触发

    客观下线流程
  • 当消息体内含有其他节点的pfail状态会判断发送节点的状态,如果发送节点是主节点则对报告的pfail状态处理,从节点则忽略
  • 找到pfail对应的节点结构,更新clusterNode内部下线报告链表
  • 根据更新后的下线报告链接表尝试进行客观下线。

故障恢复

故障节点变为客观下线后,如果下线节点是持有槽的主节点则需要在它的从节点中选出一个替换它,从而保证集群的高可用。下线主节点的所有从节点承担故障恢复的义务,当从节点通过内部定时任务发现自身复制的主节点进入客观下线时,将会触发故障恢复流程。

  • 资格检查
  • 准备选举时间
  • 发起选举
  • 选举投票
  • 替换主节点


资格检查


每个从节点都要检查最后与主节点断线时间,判断是否有资格替换故障的主接地那。如果从节点与主节点断线时间超过 cluster-node-time * cluster-slave-validity-factor,则当前从节点不具备故障转移资格。


准备选举时间


当从节点符合故障资格后,更新触发故障选举的时间,只有到达该时间后才能执行后续流程。

这里之所以采用延迟触发机制,主要是通过对多个从节点使用不同的延迟选举时间来支持优先级问题。复制偏移量越大说明从节点延迟越低,那么它应该具有更高 的优先级来替换故障主节点。


发起选举


配置纪元是一个 只增不减的整数, 每个主节点自身维护一个配置纪元( clusterNode.configEpoch)标示当前主节点的版本,所有主节点的配置纪元都不相等,从节点会复制主节点的配置纪元。整个集群又维护一个全局的配置纪元( clusterState. currentEpoch),用于记录集群内所有主节点配置纪元的最大版本。执行cluster info 命令可以在看配置纪元信息:

[root@localhost ~]# redis-cli -h 192.160.1.200 cluster info 
cluster_current_epoch:7 // 整个集群最大配置纪元
cluster_my_epoch:1 // 当前主节点配置纪元

配置纪元会跟随ping/pong消息在集群内传播,当发送方与接收方都是主节点且配置纪元相等时代表出现了冲突,nodeld 更大的一方会递增全局配置纪元并赋值给当前节点来[分冲突


选举投票


这个过程就类似于哨兵的操作,会根据拥有槽的主节点进行投票,而从节点必须要等到N/2 + 1的票数才可以,此过程从节点不参与投票


替换主节点

  • 取消复制变为主节点
  • 通过redis内置,撤销主节点槽分配,并添加到自己身上
  • 向集群中广播自己的pong消息,其他节点更新配置

未完待续!!!



版权声明:本文为u014167852原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。