`
g21121
  • 浏览: 686254 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

redis cluster 节点操作

阅读更多

        上一篇文章,我们已经学会了redis cluster的搭建及相关配置信息,本篇文章就重点学习一下redis cluster在运行过程中相关节点的操作。

        目前我们已经搭建好的集群如下所示:


 

        当初始规模(6节点)集群不够用时,我们会进行节点增加,而有时节点数量太多时,也会进行删减,下面就来看一看redis cluster对节点数量变动的支持。

        此时slot分配情况如下:


 

        1.添加数据

        添加节点前,我们先set一些测试数据,目的是查看节点变更后,这部分数据会不会自动同步过去。

        添加的数据为:key0-->key99999,共10万个。

        然后使用dbsize命令统计各节点数据分布情况,如下:

192.168.80.129:6379> dbsize
(integer) 33320

192.168.80.129:6380> dbsize
(integer) 33390

192.168.80.129:6381> dbsize
(integer) 33290

        3个节点相加为10000,如果不是那就说明集群有问题:)

        此时数据分布情况如下:


        2.增加节点

        1)添加主节点

        首先我们查看一下集群信息,redis命令行状态下输入(以6382节点为例):

192.168.80.129:6382> CLUSTER INFO
cluster_state:ok
cluster_slots_assigned:16384
cluster_slots_ok:16384
cluster_slots_pfail:0
cluster_slots_fail:0
cluster_known_nodes:6
cluster_size:3
cluster_current_epoch:7
cluster_my_epoch:7
cluster_stats_messages_sent:10288
cluster_stats_messages_received:10286

 

        添加节点可以使用如下命令:

./redis-trib.rb add-node 新节点IP:新节点端口 旧节点IP:旧节点端口
或
./redis-cli --cluster add-node 新节点IP:新节点端口 旧节点IP:旧节点端口

        第一个参数很明确,而第二个参数就有些迷惑了,旧节点指的是那个节点?master还是slave?

        这次我们准备添加2个节点,分别为redis-6385与redis-6386,于是我们先输入如下命令进行尝试:

[admin@localhost bin]$ ./redis-trib.rb add-node 192.168.80.129:6385 192.168.80.129:6382
>>> Adding node 192.168.80.129:6385 to cluster 192.168.80.129:6382
>>> Performing Cluster Check (using node 192.168.80.129:6382)
M: ef8de3f336e23da1e703719621ac878cb0ac2e40 192.168.80.129:6379
   slots:0-5460 (5461 slots) master
   1 additional replica(s)
S: 0779cac46b6e8b0908ca16feb2bb28f916348eff 192.168.80.129:6383
   slots: (0 slots) slave
   replicates 7812b87e4c22ad604869a4350b32911eb9ef5865
M: 98017cd8a46aee30e6cc3222fa1657118f1eeec2 192.168.80.129:6381
   slots:10923-16383 (5461 slots) master
   1 additional replica(s)
S: 5cee1d472a3d956ae56332b8a30b05520b8893ea 192.168.80.129:6382
   slots: (0 slots) slave
   replicates ef8de3f336e23da1e703719621ac878cb0ac2e40
S: 79ed8fc747c0c02ee8b7318d83f96d6fa7d5ffa5 192.168.80.129:6384
   slots: (0 slots) slave
   replicates 98017cd8a46aee30e6cc3222fa1657118f1eeec2
M: 7812b87e4c22ad604869a4350b32911eb9ef5865 192.168.80.129:6380
   slots:5461-10922 (5462 slots) master
   1 additional replica(s)
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.
>>> Send CLUSTER MEET to node 192.168.80.129:6385 to make it join the cluster.
[OK] New node added correctly.
        我们发现添加成功了,那么第二个参数也就明确了,指的是集群中的任意一个节点即可,因为都可以获取到集群的信息。

        而此时新添加的6385节点并没有出现在集群信息当中,通过CLUSTER INFO命令就可以看到,集群cluster_size:3。

 

        补充,redis-trib.rb有以下参数可以使用:

        create:创建一个集群环境host1:port1 ... hostN:portN(集群中的主从节点比例)

        例如:./redis-trib.rb create --replicas 1 192.168.80.129:6379 192.168.80.129:6380 192.168.80.129:6381 192.168.80.129:6382 192.168.80.129:6383 192.168.80.129:6384

        call:可以执行redis命令

        例如:./redis-trib.rb call 192.168.80.129:6379 cluster info

        add-node:将节点添加到集群里,第一个参数为要添加节点的IP与端口,第二个参数为集群中任意一个已经存在的节点的IP与端口

        例如:./redis-trib.rb add-node 192.168.80.129:6385 192.168.80.129:6379

        del-node:移除一个节点

        例如:./redis-trib.rb del-node 192.168.80.129:6386 13ed528b7f45bfe03d6728d9dd3bc34a38d6cf75

        reshard:重新分片

        例如:./redis-trib.rb reshard 192.168.80.129:6379

        check:检查集群状态

        例如:./redis-trib.rb check 192.168.80.129:6379

 

        2)添加从节点

        虽然上面已经添加了master节点6385,从6385的node配置中也看到了,接下来我们继续添加6385的从节点,命令如下:

[admin@localhost bin]$ ./redis-trib.rb add-node --slave --master-id 3a1d7eadcc99f296ca76ef7a687184fec9dee782 192.168.80.129:6386 192.168.80.129:6379
>>> Adding node 192.168.80.129:6386 to cluster 192.168.80.129:6379
>>> Performing Cluster Check (using node 192.168.80.129:6379)
M: ef8de3f336e23da1e703719621ac878cb0ac2e40 192.168.80.129:6379
   slots:0-5460 (5461 slots) master
   1 additional replica(s)
S: 0779cac46b6e8b0908ca16feb2bb28f916348eff 192.168.80.129:6383
   slots: (0 slots) slave
   replicates 7812b87e4c22ad604869a4350b32911eb9ef5865
M: 98017cd8a46aee30e6cc3222fa1657118f1eeec2 192.168.80.129:6381
   slots:10923-16383 (5461 slots) master
   1 additional replica(s)
M: 3a1d7eadcc99f296ca76ef7a687184fec9dee782 192.168.80.129:6385
   slots: (0 slots) master
   0 additional replica(s)
S: 5cee1d472a3d956ae56332b8a30b05520b8893ea 192.168.80.129:6382
   slots: (0 slots) slave
   replicates ef8de3f336e23da1e703719621ac878cb0ac2e40
S: 79ed8fc747c0c02ee8b7318d83f96d6fa7d5ffa5 192.168.80.129:6384
   slots: (0 slots) slave
   replicates 98017cd8a46aee30e6cc3222fa1657118f1eeec2
M: 7812b87e4c22ad604869a4350b32911eb9ef5865 192.168.80.129:6380
   slots:5461-10922 (5462 slots) master
   1 additional replica(s)
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.
>>> Send CLUSTER MEET to node 192.168.80.129:6386 to make it join the cluster.
Waiting for the cluster to join.
>>> Configure node as replica of 192.168.80.129:6385.
[OK] New node added correctly.

        至于从哪里获取6385节点的ID,我就不说了。

        这时我们惊奇的发现,此时集群中cluster_size依然为3,这就说明虽然两个节点已经加入集群,当应该还未正常工作。

 

        3.重新分配slot

        因为我们没有给新节点分配slot的关系,所以它还不能正常工作。

        redis-6379与redis-6381的slot数量为5461个,redis-6380的slot数量为5462个,这里需要注意。

        因为此时集群中已经有4个mster节点,并且16384/4=4096,正好可以平均分配,所以就需要从6379与6381节点中拆分出1365个slot,从6380节点中拆分出1366个slot,如下所示:

 

        接下来输入reshard命令并根据提示执行,如下所示:

[admin@localhost bin]$ ./redis-trib.rb reshard 192.168.80.129:6379
>>> Performing Cluster Check (using node 192.168.80.129:6379)
M: ef8de3f336e23da1e703719621ac878cb0ac2e40 192.168.80.129:6379
   slots:0-5460 (5461 slots) master
   1 additional replica(s)
S: 0779cac46b6e8b0908ca16feb2bb28f916348eff 192.168.80.129:6383
   slots: (0 slots) slave
   replicates 7812b87e4c22ad604869a4350b32911eb9ef5865
M: 98017cd8a46aee30e6cc3222fa1657118f1eeec2 192.168.80.129:6381
   slots:10923-16383 (5461 slots) master
   1 additional replica(s)
S: 13ed528b7f45bfe03d6728d9dd3bc34a38d6cf75 192.168.80.129:6386
   slots: (0 slots) slave
   replicates 3a1d7eadcc99f296ca76ef7a687184fec9dee782
M: 3a1d7eadcc99f296ca76ef7a687184fec9dee782 192.168.80.129:6385
   slots: (0 slots) master
   1 additional replica(s)
S: 5cee1d472a3d956ae56332b8a30b05520b8893ea 192.168.80.129:6382
   slots: (0 slots) slave
   replicates ef8de3f336e23da1e703719621ac878cb0ac2e40
S: 79ed8fc747c0c02ee8b7318d83f96d6fa7d5ffa5 192.168.80.129:6384
   slots: (0 slots) slave
   replicates 98017cd8a46aee30e6cc3222fa1657118f1eeec2
M: 7812b87e4c22ad604869a4350b32911eb9ef5865 192.168.80.129:6380
   slots:5461-10922 (5462 slots) master
   1 additional replica(s)
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.
How many slots do you want to move (from 1 to 16384)? 1365(这里输入要调整的slot数量)
What is the receiving node ID? 3a1d7eadcc99f296ca76ef7a687184fec9dee782(这里输入要接受slot的node ID,此处为6385节点的ID)
Please enter all the source node IDs.
  Type 'all' to use all the nodes as source nodes for the hash slots.
  Type 'done' once you entered all the source nodes IDs.
Source node #1:ef8de3f336e23da1e703719621ac878cb0ac2e40(从哪个节点拆分,此处为6379节点的ID)
Source node #2:98017cd8a46aee30e6cc3222fa1657118f1eeec2(从哪个节点拆分,此处为6381节点的ID)
Source node #3:done      (开始执行)
    开始打印
    ........
    Moving slot 11593 from 98017cd8a46aee30e6cc3222fa1657118f1eeec2
    Moving slot 11594 from 98017cd8a46aee30e6cc3222fa1657118f1eeec2
    Moving slot 11595 from 98017cd8a46aee30e6cc3222fa1657118f1eeec2
    Moving slot 11596 from 98017cd8a46aee30e6cc3222fa1657118f1eeec2
    Moving slot 11597 from 98017cd8a46aee30e6cc3222fa1657118f1eeec2
    Moving slot 11598 from 98017cd8a46aee30e6cc3222fa1657118f1eeec2
    Moving slot 11599 from 98017cd8a46aee30e6cc3222fa1657118f1eeec2
    Moving slot 11600 from 98017cd8a46aee30e6cc3222fa1657118f1eeec2
    Moving slot 11601 from 98017cd8a46aee30e6cc3222fa1657118f1eeec2
    Moving slot 11602 from 98017cd8a46aee30e6cc3222fa1657118f1eeec2
    Moving slot 11603 from 98017cd8a46aee30e6cc3222fa1657118f1eeec2
    Moving slot 11604 from 98017cd8a46aee30e6cc3222fa1657118f1eeec2
Do you want to proceed with the proposed reshard plan (yes/no)?yes(输入yes确认)
开始打印
......
Moving slot 11598 from 192.168.80.129:6381 to 192.168.80.129:6385: .....
Moving slot 11599 from 192.168.80.129:6381 to 192.168.80.129:6385: .........
Moving slot 11600 from 192.168.80.129:6381 to 192.168.80.129:6385: .........
Moving slot 11601 from 192.168.80.129:6381 to 192.168.80.129:6385: ....
Moving slot 11602 from 192.168.80.129:6381 to 192.168.80.129:6385: ........
Moving slot 11603 from 192.168.80.129:6381 to 192.168.80.129:6385: ...
Moving slot 11604 from 192.168.80.129:6381 to 192.168.80.129:6385: ........
至此,6379节点与6381节点的slot已经reshard完成。

 

        6380节点的reshard操作我就不再赘述了,都拆分完成后,我们利用redis-trib.rb来查看一下redis中数据的分布情况,如下所示:

[admin@localhost bin]$ ./redis-trib.rb call 192.168.80.129:6379 dbsize
>>> Calling DBSIZE
192.168.80.129:6379: 29181
192.168.80.129:6380: 25088
192.168.80.129:6381: 29130
192.168.80.129:6385: 16601

        29181+25088+29130+16601=100000!

        我们发现reshard操作并不会丢失数据,就像直接把slot移动过来一般。

        然后我们查看一下此时的的集群信息,如下:

[admin@localhost bin]$ ./redis-cli -c -p 6379 -h 192.168.80.129
192.168.80.129:6379> cluster info
cluster_state:fail
cluster_slots_assigned:16384
cluster_slots_ok:13653
cluster_slots_pfail:0
cluster_slots_fail:2731
cluster_known_nodes:8
cluster_size:4
cluster_current_epoch:8
cluster_my_epoch:1
cluster_stats_messages_sent:98899
cluster_stats_messages_received:98453

        cluster_size已经是4,证明最新的节点已经添加成功。

 

        4.删除nodes

        1)删除从节点

        删除从节点的工作比较简单,因为我们不需要考虑数据问题,只需要执行以下命令即可:

[admin@localhost bin]$ ./redis-trib.rb del-node 192.168.80.129:6386 13ed528b7f45bfe03d6728d9dd3bc34a38d6cf75
>>> Removing node 13ed528b7f45bfe03d6728d9dd3bc34a38d6cf75 from cluster 192.168.80.129:6386
>>> Sending CLUSTER FORGET messages to the cluster...
>>> SHUTDOWN the node.

        很轻松的就把6386这个节点从集群中删除掉了。

        注意:删除节点后该节点对应的进程也会被终止,如下:

        列表中已经没有了6386节点的进程。

 

        2)删除从节点

        删除之前我们需要考虑当前节点的数据转移问题,那么redis会帮我们自动转移吗?

        先直接按照删除从节点的方法直接删除主节点,如下:

[admin@localhost bin]$ ./redis-trib.rb del-node 192.168.80.129:6385 3a1d7eadcc99f296ca76ef7a687184fec9dee782
>>> Removing node 3a1d7eadcc99f296ca76ef7a687184fec9dee782 from cluster 192.168.80.129:6385
[ERR] Node 192.168.80.129:6385 is not empty! Reshard data away and try again.

        发现删除失败,提示我们6385节点内还存在数据,需要我们reshard后再尝试。

于是我们reshard一下6385节点,操作如下:

[admin@localhost bin]$ ./redis-trib.rb reshard 192.168.80.129:6385
>>> Performing Cluster Check (using node 192.168.80.129:6385)
M: 3a1d7eadcc99f296ca76ef7a687184fec9dee782 192.168.80.129:6385
   slots:0-682,5461-6826,10923-11604 (2731 slots) master
   0 additional replica(s)
S: 0779cac46b6e8b0908ca16feb2bb28f916348eff 192.168.80.129:6383
   slots: (0 slots) slave
   replicates 7812b87e4c22ad604869a4350b32911eb9ef5865
M: 98017cd8a46aee30e6cc3222fa1657118f1eeec2 192.168.80.129:6381
   slots:11605-16383 (4779 slots) master
   1 additional replica(s)
S: 79ed8fc747c0c02ee8b7318d83f96d6fa7d5ffa5 192.168.80.129:6384
   slots: (0 slots) slave
   replicates 98017cd8a46aee30e6cc3222fa1657118f1eeec2
M: 7812b87e4c22ad604869a4350b32911eb9ef5865 192.168.80.129:6380
   slots:6827-10922 (4096 slots) master
   1 additional replica(s)
S: 5cee1d472a3d956ae56332b8a30b05520b8893ea 192.168.80.129:6382
   slots: (0 slots) slave
   replicates ef8de3f336e23da1e703719621ac878cb0ac2e40
M: ef8de3f336e23da1e703719621ac878cb0ac2e40 192.168.80.129:6379
   slots:683-5460 (4778 slots) master
   1 additional replica(s)
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.
How many slots do you want to move (from 1 to 16384)? 2731(输入要移动的slot数,取上文列出的即可)
What is the receiving node ID? 7812b87e4c22ad604869a4350b32911eb9ef5865(选择谁接收,这里选择了6380节点)
Please enter all the source node IDs.
  Type 'all' to use all the nodes as source nodes for the hash slots.
  Type 'done' once you entered all the source nodes IDs.
Source node #1:3a1d7eadcc99f296ca76ef7a687184fec9dee782(来源,即从谁哪里移动)
Source node #2:done(确认执行)
    ......
    ......
    Moving slot 11596 from 3a1d7eadcc99f296ca76ef7a687184fec9dee782
    Moving slot 11597 from 3a1d7eadcc99f296ca76ef7a687184fec9dee782
    Moving slot 11598 from 3a1d7eadcc99f296ca76ef7a687184fec9dee782
    Moving slot 11599 from 3a1d7eadcc99f296ca76ef7a687184fec9dee782
    Moving slot 11600 from 3a1d7eadcc99f296ca76ef7a687184fec9dee782
    Moving slot 11601 from 3a1d7eadcc99f296ca76ef7a687184fec9dee782
    Moving slot 11602 from 3a1d7eadcc99f296ca76ef7a687184fec9dee782
    Moving slot 11603 from 3a1d7eadcc99f296ca76ef7a687184fec9dee782
    Moving slot 11604 from 3a1d7eadcc99f296ca76ef7a687184fec9dee782
Do you want to proceed with the proposed reshard plan (yes/no)? yes
    ......
    ......
Moving slot 11602 from 192.168.80.129:6385 to 192.168.80.129:6380: ........
Moving slot 11603 from 192.168.80.129:6385 to 192.168.80.129:6380: ...
Moving slot 11604 from 192.168.80.129:6385 to 192.168.80.129:6380: ........

        reshard成功,接下来我们验证以下,执行cluster slots命令,如下:

192.168.80.129:6379> CLUSTER SLOTS
1) 1) (integer) 11605
   2) (integer) 16383
   3) 1) "192.168.80.129"
      2) (integer) 6381
      3) "98017cd8a46aee30e6cc3222fa1657118f1eeec2"
   4) 1) "192.168.80.129"
      2) (integer) 6384
      3) "79ed8fc747c0c02ee8b7318d83f96d6fa7d5ffa5"
2) 1) (integer) 683
   2) (integer) 5460
   3) 1) "192.168.80.129"
      2) (integer) 6379
      3) "ef8de3f336e23da1e703719621ac878cb0ac2e40"
   4) 1) "192.168.80.129"
      2) (integer) 6382
      3) "5cee1d472a3d956ae56332b8a30b05520b8893ea"
3) 1) (integer) 0
   2) (integer) 682
   3) 1) "192.168.80.129"
      2) (integer) 6380
      3) "7812b87e4c22ad604869a4350b32911eb9ef5865"
   4) 1) "192.168.80.129"
      2) (integer) 6383
      3) "0779cac46b6e8b0908ca16feb2bb28f916348eff"
4) 1) (integer) 5461
   2) (integer) 11604
   3) 1) "192.168.80.129"
      2) (integer) 6380
      3) "7812b87e4c22ad604869a4350b32911eb9ef5865"
   4) 1) "192.168.80.129"
      2) (integer) 6383
      3) "0779cac46b6e8b0908ca16feb2bb28f916348eff"

        果然列表中已经没有了6385节点的slots,而这部分slot已经移动到了6380节点上。

        最后我们重新调用删除命令,进行6385节点的删除,如下:

[admin@localhost bin]$ ./redis-trib.rb del-node 192.168.80.129:6385 3a1d7eadcc99f296ca76ef7a687184fec9dee782
>>> Removing node 3a1d7eadcc99f296ca76ef7a687184fec9dee782 from cluster 192.168.80.129:6385
>>> Sending CLUSTER FORGET messages to the cluster...
>>> SHUTDOWN the node.

        删除成功,并且进程也被终止。 

        下一篇我们来看看redis集群中内部通信与选举过程。

  • 大小: 50.2 KB
  • 大小: 52.7 KB
  • 大小: 16.3 KB
  • 大小: 10.7 KB
  • 大小: 10.3 KB
  • 大小: 23.1 KB
  • 大小: 23.3 KB
  • 大小: 11.2 KB
  • 大小: 9.9 KB
分享到:
评论

相关推荐

    Redis cluster最佳实践

    我在做redis cluster的时候发现,两节点的cluster在处理断网或单节点故障时,会出现脑裂情况,为此,我做了实验去测试redis cluster配置的最佳方式,本文包含了测试的全过程。

    redis cluster 集群节点配置

    redis cluster 集群节点配置 拿来即用

    Redis官方Cluster搭建配置步骤详解

    Redis 集群是一个提供在多个Redis间节点间共享数据的程序集。 Redis集群并 不支持处理多个keys... 本文,是我自己写的Redis Cluster集群搭建和配置详细步骤,包含了常用的Redis配置文件,和节点的管理等,以供大家参考.

    rediscluster配置文件.zip

    6389为6379的从节点,6390为6380的从节点,6391为6381的从节点。三主三从,下载完了修改bind dir masterauth cluster

    Redis Cluster部署文档.docx

    redis3.0版本cluster安装部署配置和管理,样例演示, 集群操作常用命令 CLUSTER INFO 打印集群的信息 CLUSTER NODES 列出集群当前已知的所有节点(node),以及这些节点的相关信息。

    Redis Cluster 踩坑案例之内存占用飙升

    Redis Cluster 某个分片(10.20.2.53:7101)内存飙升,明显比其它高跟多,而且持续增长并达到了峰值。并且主从的内存使用量不一致。 IP 监听端口 主/从 实例状态 内存使用 对象数 连接数 命中率 10.20.0.40 ...

    Tomcat 8+ redis cluster session

    在不改变工程代码的情况下,使tomcat多个节点利用redis cluster进行session共享.

    redis-cluster-operator:Redis Cluster Operator在Kubernetes上创建和管理Redis集群

    redis-cluster-operator 概述 Redis Cluster Operator在Kubernetes上管理 。 操作员本身是用。 每个主节点及其从节点都由statefulSet管理,为每个statefulSet创建一个无头svc,并为所有节点创建clusterIP服务。 ...

    Redis 3.x 分布式集群搭建.pdf

    redis从3.0开始支持集群功能。redis集群采用无中心节点方式实现,无需proxy代理,客户端...一旦有主节点发生故障的时候,Redis Cluster可以选举出对应的从结点成为新的主节点,继续对外服务,从而保证服务的高可用性.

    Redis Cluster5.0.5.rar

    基于Redis Cluster 5.0.5集群部署,单节点多端口测试部署。附件脚本可以根据自定义模板,自动创建目录及配置文件。包括启动进程,根据IP来启动集群,以及重新加载配置文件等操作。./redis.sh create|start|stop|...

    Redis Cluster集群数据分片机制原理

    Redis Cluster 一般由多个节点组成,节点数量至少为 6 个才能保证组成完整高可用的集群,其中三个为主节点,三个为从节点。三个主节点会分配槽,处理客户端的命令请求,而从节点可用在主节点故障后,顶替主节点。 ...

    redis cluster集群部署文档(Linux)

    一个比较全的redis cluster的部署文档,介绍在linux环境中下载、安装redis,配置各个节点,并最终形成集群,本人已用该文档在多套环境中进行部署,真实可用

    shell监控redis集群节点异常发送邮件通知管理员.rar

    可配置化shel脚本监控redis集群节点,如果节点运行异常,发送邮件到配置一个或多个管理员邮箱,无任何坑

    redis cluster 4.0.8 集群配置文档

    文档中介绍Linux7/CentOS7 下的redis cluster 集群搭建。使用的版本是4.0.8 包含节点创建、删除,移槽等操作。

    redis-cluster集群脚本

    redis-cluster集群脚本。搭建一个(master+slave) * 3,合计6个节点的集群。

    redis-cluster.zip

    Docker-compose.yml:redis-cluster集群redis节点初始化文件 Dockerfile:集群节点redis镜像创建文件 Entrypoint.sh:redis镜像创建脚本文件 Redis.conf:redis客户端 Redis-trib-latest.tar.gz:redis-cluster管理...

    RedisCluster-with-Monitoring-Setup:Redis Cluster与Prometheus的这种组合启用了Prometheus监视|| 全自动|| 地形|| AWS || Ansible

    带监控设置的RedisCluster 使用:首先运行TF以提供基础架构,然后可以配置REDIS集群 cd terraform /资源/ aws / us-west-2 / prod / 地形初始化 地形图 terraform适用 重点说明 角色扮演: 集群设置 关于Redis设置...

    基于ansible一键离线部署redis6.2.8容器版cluster集群工具

    7、支持一键部署所有节点或单个redis实例部署、启动、停止、重启、检查、移除等功能。 8、 支持数据目录、日志目录、端口、集群密码等参数的灵活配置。 9、 支持数据目录、日志目录、配置文件等持久化。

    RedisCluster分区实现原理

    RedisCluster本身提供了自动将数据分散到RedisCluster不同节点的能力,分区实现的关键点问题包括:如何将数据自动地打散到不同的节点,使得不同节点的存储数据相对均匀;如何保证客户端能够访问到正确的节点和数据;...

    redis cluster

    (1)redis cluster节点间采取gossip协议进行通信,与集中式不同,不是把所有的元数据(节点信息、故障等等)信息都集中放在某个节点上,而是互相间不断通信,保证每个节点间的元数据信息都是完整的。 (2)每个节点都有一...

Global site tag (gtag.js) - Google Analytics