CentOS 7下 部署Redis

Stella981
• 阅读 512

redis集群是一个无中心的分布式redis存储架构,可以在多个节点之间进行数据共享,解决了redis高可用、可扩展等问题,redis集群提供了以下两个好处:
1)将数据自动切分(split)到多个节点
2)当集群中的某一个节点故障时,redis还可以继续处理客户端的请求

一个 Redis 集群包含 16384 个哈希槽(hash slot),数据库中的每个数据都属于这16384个哈希槽中的一个  集群使用公式 CRC16(key) % 16384 来计算键 key 属于哪个槽 集群中的每一个节点负责处理一部分哈希槽
集群中的主从复制
集群中的每个节点都有1个至N个复制品,其中一个为主节点,其余的为从节点,如果主节点下线了,集群就会把这个主节点的一个从节点设置为新的主节点,继续工作 这样集群就不会因为一个主节点的下线而无法正常工作

Redis Cluster集群功能推出已经有一段时间了 在单机版的Redis中,每个Master之间是没有任何通信的,所以一般在Jedis客户端或者Codis这样的代理中做Pre-sharding 按照CAP理论来说,单机版的Redis属于保证CP(Consistency & Partition-Tolerancy)而牺牲A(Availability),也就说Redis能够保证所有用户看到相同的数据(一致性,因为Redis不自动冗余数据)和网络通信出问题时,暂时隔离开的子系统能继续运行(分区容忍性,因为Master之间没有直接关系,不需要通信),但是不保证某些结点故障时,所有请求都能被响应(可用性,某个Master结点挂了的话,那么它上面分片的数据就无法访问了)

有了Cluster功能后,Redis从一个单纯的NoSQL内存数据库变成了分布式NoSQL数据库,CAP模型也从CP变成了AP 也就是说,通过自动分片和冗余数据,Redis具有了真正的分布式能力,某个结点挂了的话,因为数据在其他结点上有备份,所以其他结点顶上来就可以继续提供服务,保证了Availability 然而,也正因为这一点,Redis无法保证曾经的强一致性了 这也是CAP理论要求的,三者只能取其二

Redis Cluster 是Redis的集群实现,内置数据自动分片机制,集群内部将所有的key映射到16384个Slot中,集群中的每个Redis Instance负责其中的一部分的Slot的读写 集群客户端连接集群中任一Redis Instance即可发送命令,当Redis Instance收到自己不负责的Slot的请求时,会将负责请求Key所在Slot的Redis Instance地址返回给客户端,客户端收到后自动将原请求重新发往这个地址,对外部透明 一个Key到底属于哪个Slot由crc16(key) % 16384 决定 在Redis Cluster里对于负载均衡和HA相关都已经支持的相当完善了

负载均衡(Load Balance):集群的Redis Instance之间可以迁移数据,以Slot为单位,但不是自动的,需要外部命令触发
集群成员管理:集群的节点(Redis Instance)和节点之间两两定期交换集群内节点信息并且更新,从发送节点的角度看,这些信息包括:集群内有哪些节点,IP和PORT是什么,节点名字是什么,节点的状态(比如OK,PFAIL,FAIL,后面详述)是什么,包括节点角色(master 或者 slave)等
关于可用性,集群由N组主从Redis Instance组成

主可以没有从,但是没有从 意味着主宕机后主负责的Slot读写服务不可用

一个主可以有多个从,主宕机时,某个从会被提升为主,具体哪个从被提升为主,协议类似于Raft,参见这里 如何检测主宕机?Redis Cluster采用quorum+心跳的机制 从节点的角度看,节点会定期给其他所有的节点发送Ping,cluster-node-timeout(可配置,秒级)时间内没有收到对方的回复,则单方面认为对端节点宕机,将该节点标为PFAIL状态 通过节点之间交换信息收集到quorum个节点都认为这个节点为PFAIL,则将该节点标记为FAIL,并且将其发送给其他所有节点,其他所有节点收到后立即认为该节点宕机 从这里可以看出,主宕机后,至少cluster-node-timeout时间内该主所负责的Slot的读写服务不可用

redis cluster集群是为了降低单节点或单纯主从redis的压力,主主节点之间是不存在同步关系的,各主从之间的数据存在同步关系 有多少主节点,就会把16384个哈希槽(hash slot)平均分配到这些主节点上当往redis里写入数据时,会根据哈希算法算出这个数的哈希槽,决定它放到哪一个主节点上,然后这个主节点的从节点去自动同步 在客户端随便连接一个主节点即可,主节点之间会进行内部跳转!当取对应数据时,各节点之间会自动跳转到所取数据所在的主节点上!

1)redis cluster节点分配
假设现有有三个主节点分别是:A、 B、C ,它们可以是一台机器上的三个端口,也可以是三台不同的服务器 那么,采用哈希槽 (hash slot)的方式
来分配16384个slot 的话,它们三个节点分别承担的slot 区间是:
节点A         覆盖0-5460;
节点B         覆盖5461-10922;
节点C        覆盖10923-16383.

获取数据:
如果存入一个值,按照redis cluster哈希槽的算法: CRC16('key')%16384 = 6782 那么就会把这个key 的存储分配到 B 上了 同样,当我连接
(A,B,C)任何一个节点想获取'key'这个key时,也会这样的算法,然后内部跳转到B节点上获取数据 

新增一个主节点:
新增一个节点D,redis cluster的这种做法是从各个节点的前面各拿取一部分slot到D上,我会在接下来的实践中实验 大致就会变成这样:
节点A         覆盖1365-5460
节点B        覆盖6827-10922
节点C       覆盖12288-16383
节点D       覆盖0-1364,5461-6826,10923-12287

同样删除一个节点也是类似,移动完成后就可以删除这个节点了

2)Redis Cluster主从模式
redis cluster 为了保证数据的高可用性,加入了主从模式,一个主节点对应一个或多个从节点,主节点提供数据存取,从节点则是从主节点拉取数据
备份,当这个主节点挂掉后,就会有这个从节点选取一个来充当主节点,从而保证集群不会挂掉

上面那个例子里, 集群有A、B、C三个主节点, 如果这3个节点都没有加入从节点,如果B挂掉了,我们就无法访问整个集群了 A和C的slot也无法访问
所以在集群建立的时候,一定要为每个主节点都添加了从节点, 比如像这样, 集群包含主节点A、B、C, 以及从节点A1、B1、C1, 那么即使B挂掉系统也
可以继续正确工作 B1节点替代了B节点,所以Redis集群将会选择B1节点作为新的主节点,集群将会继续正确地提供服务 当B重新开启后,它就会变成B1的从节点

不过需要注意,如果节点B和B1同时挂了,Redis集群就无法继续正确地提供服务了

由于最小的redis集群需要3个主节点(即Redis Cluster集群至少需要3个master节点,也就是说至少需要6个节点才能构建Redis cluster集群),一台机器可运行多个redis实例(一般使用两台机器,每台启动3个redis实例,即三个主节点,三个从节点) 很多案例使用单台服务器开6个端口,操作差不多,只是配置基本相对简单点,多台服务器更接近生产环境 【当集群最开始创建好后,要记住各节点的主从关系(或是创建的时候指定主从关系);若是其中一台机器重启,重启后,需重新将其加入到redis cluster集群中;这就需要将这台机器上的各节点之前的从节点变为主节点(客户端执行slaveof no one),然后再根据新的主节点添加这台机器的各节点到集群中,添加后变为从节点】

环境 : CentOS7 

redis01 : 192.168.94.11 端口 : 7000、7001、7002

redis02 : 192.168.94.22 端口 : 7003、7004、7005

redis03 : 192.168.94.33 端口 : 7006、7007、7008

关闭SElinux和防火墙

安装redis

[root@redis01 ~]# yum install -y gcc g++ make gcc-c++ kernel-devel automake autoconf libtool make wget tcl vim ruby rubygems unzip git
[root@redis01 ~]#  wget http://download.redis.io/releases/redis-4.0.1.tar.gz
[root@redis01 ~]# tar xf redis-4.0.1.tar.gz -C /usr/local/src/
[root@redis01 ~]# cd /usr/local/src/redis-4.0.1/
[root@redis01 redis-4.0.1]# make && make test && make PREFIX=/usr/local/redis install
[root@redis01 redis-4.0.1]# mkdir /usr/local/redis/conf
[root@redis01 redis-4.0.1]# cp *.conf /usr/local/redis/conf/
[root@redis01 redis-4.0.1]# cp /usr/local/src/redis-4.0.1/src/redis-trib.rb /usr/local/redis/bin/
[root@redis01 redis-4.0.1]# ln -s /usr/local/redis/bin/* /usr/local/bin/
# 进行操作系统基础调优设置
[root@redis01 redis-4.0.1]# echo "* - nofile 10240" >> /etc/security/limits.conf 
[root@redis01 redis-4.0.1]# echo "net.core.somaxconn = 10240" >> /etc/sysctl.conf 
[root@redis01 redis-4.0.1]# echo "vm.overcommit_memory = 1" >> /etc/sysctl.conf 
[root@redis01 redis-4.0.1]# sysctl -p
net.core.somaxconn = 10240
vm.overcommit_memory = 1
[root@redis01 redis-4.0.1]# echo never > /sys/kernel/mm/transparent_hugepage/enabled
[root@redis01 redis-4.0.1]# echo never > /sys/kernel/mm/transparent_hugepage/defrag
[root@redis01 redis-4.0.1]# echo 'echo never > /sys/kernel/mm/transparent_hugepage/enabled' >> /etc/rc.local
[root@redis01 redis-4.0.1]# echo 'echo never > /sys/kernel/mm/transparent_hugepage/defrag' >> /etc/rc.local
[root@redis01 redis-4.0.1]# su -l

创建节点

# 创建集群节点目录
[root@redis01 ~]# mkdir /data/redis/redis-cluster -p
[root@redis01 redis-cluster]# cd /data/redis/redis-cluster/[root@redis01 redis-cluster]# mkdir 7000 7001 7002 # 修改节点配置文件,为了测试方便, 只做初步的简单配置 
[root@redis01 redis-cluster]# for i in 0 1 2;
 do echo -e "port 700$i\n\
 bind `hostname -I`\n\
 daemonize yes\n\
 pidfile /var/run/redis_700$i.pid\n\
 cluster-enabled yes\n\
 cluster-config-file nodes_700$i.conf\n\
 cluster-node-timeout 10100" > 700$i/redis.conf;
 done

CentOS 7下 部署Redis CentOS 7下 部署Redis

cluster-enabled yes
bind 0.0.0.0
port 7000
pidfile /data/redis-cluster/7000/redis.pid
logfile "/data/redis-cluster/7000/redis.log"
dir /data/redis-cluster/7000/
tcp-backlog 1024
timeout 0
tcp-keepalive 0
daemonize yes
loglevel notice
databases 16
stop-writes-on-bgsave-error yes
rdbcompression yes
rdbchecksum yes
dbfilename "dump.rdb"
slave-serve-stale-data yes
slave-read-only yes
repl-diskless-sync no
repl-diskless-sync-delay 5
repl-disable-tcp-nodelay no
slave-priority 100
lazyfree-lazy-eviction no
lazyfree-lazy-expire no
lazyfree-lazy-server-del no
slave-lazy-flush no
appendonly no
appendfilename "appendonly.aof"
appendfsync everysec
no-appendfsync-on-rewrite yes
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
aof-load-truncated yes
lua-time-limit 5000
slowlog-log-slower-than 10000
slowlog-max-len 128
latency-monitor-threshold 0
notify-keyspace-events ""
hash-max-ziplist-entries 512
hash-max-ziplist-value 64
list-max-ziplist-entries 512
list-max-ziplist-value 64
set-max-intset-entries 512
zset-max-ziplist-entries 128
zset-max-ziplist-value 64
hll-sparse-max-bytes 3000
activerehashing yes
client-output-buffer-limit normal 0 0 0
client-output-buffer-limit slave 256mb 64mb 60
client-output-buffer-limit pubsub 32mb 8mb 60
hz 10
aof-rewrite-incremental-fsync yes

详细配置(仅供参考)

[root@redis01 redis-cluster]# tree 
.
├── 7000
│   └── redis.conf
├── 7001
│   └── redis.conf
└── 7002
    └── redis.conf

3 directories, 3 files

其他节点做以上相同操作即可 , 只把目录名按照端口号区别开即可

然后启动集群

# 第一个节点上启动3个实例
for i in 0 1 2;
> do redis-server /data/redis/redis-cluster/700$i/redis.conf 
> done
68820:C 08 Oct 22:21:14.965 # oO0OoO0OoO0Oo Redis is starting oO0OoO0OoO0Oo
68820:C 08 Oct 22:21:14.965 # Redis version=4.0.1, bits=64, commit=00000000, modified=0, pid=68820, just started
68820:C 08 Oct 22:21:14.965 # Configuration loaded
68822:C 08 Oct 22:21:14.972 # oO0OoO0OoO0Oo Redis is starting oO0OoO0OoO0Oo
68822:C 08 Oct 22:21:14.972 # Redis version=4.0.1, bits=64, commit=00000000, modified=0, pid=68822, just started
68822:C 08 Oct 22:21:14.972 # Configuration loaded
68824:C 08 Oct 22:21:14.981 # oO0OoO0OoO0Oo Redis is starting oO0OoO0OoO0Oo
68824:C 08 Oct 22:21:14.981 # Redis version=4.0.1, bits=64, commit=00000000, modified=0, pid=68824, just started
68824:C 08 Oct 22:21:14.981 # Configuration loaded
# 第二个节点上启动3个实例
[root@redis02 redis-cluster]# for i in 3 4 5;
> do redis-server /data/redis/redis-cluster/700$i/redis.conf 
> done
41766:C 08 Oct 22:21:42.369 # oO0OoO0OoO0Oo Redis is starting oO0OoO0OoO0Oo
41766:C 08 Oct 22:21:42.369 # Redis version=4.0.1, bits=64, commit=00000000, modified=0, pid=41766, just started
41766:C 08 Oct 22:21:42.369 # Configuration loaded
41768:C 08 Oct 22:21:42.375 # oO0OoO0OoO0Oo Redis is starting oO0OoO0OoO0Oo
41768:C 08 Oct 22:21:42.375 # Redis version=4.0.1, bits=64, commit=00000000, modified=0, pid=41768, just started
41768:C 08 Oct 22:21:42.375 # Configuration loaded
41770:C 08 Oct 22:21:42.380 # oO0OoO0OoO0Oo Redis is starting oO0OoO0OoO0Oo
41770:C 08 Oct 22:21:42.380 # Redis version=4.0.1, bits=64, commit=00000000, modified=0, pid=41770, just started
41770:C 08 Oct 22:21:42.380 # Configuration loaded
# 第三个节点上启动3个实例
[root@redis03 redis-cluster]# for i in 6 7 8;
> do redis-server /data/redis/redis-cluster/700$i/redis.conf 
> done
41854:C 08 Oct 22:21:51.935 # oO0OoO0OoO0Oo Redis is starting oO0OoO0OoO0Oo
41854:C 08 Oct 22:21:51.935 # Redis version=4.0.1, bits=64, commit=00000000, modified=0, pid=41854, just started
41854:C 08 Oct 22:21:51.935 # Configuration loaded
41856:C 08 Oct 22:21:51.939 # oO0OoO0OoO0Oo Redis is starting oO0OoO0OoO0Oo
41856:C 08 Oct 22:21:51.939 # Redis version=4.0.1, bits=64, commit=00000000, modified=0, pid=41856, just started
41856:C 08 Oct 22:21:51.939 # Configuration loaded
41858:C 08 Oct 22:21:51.945 # oO0OoO0OoO0Oo Redis is starting oO0OoO0OoO0Oo
41858:C 08 Oct 22:21:51.945 # Redis version=4.0.1, bits=64, commit=00000000, modified=0, pid=41858, just started
41858:C 08 Oct 22:21:51.945 # Configuration loaded

检查各Redis节点的启动状态

[root@redis01 redis-cluster]# netstat -antup|grep redis
tcp        0      0 192.168.94.11:17000     0.0.0.0:*               LISTEN      68821/redis-server  
tcp        0      0 192.168.94.11:17001     0.0.0.0:*               LISTEN      68823/redis-server  
tcp        0      0 192.168.94.11:17002     0.0.0.0:*               LISTEN      68828/redis-server  
tcp        0      0 192.168.94.11:7000      0.0.0.0:*               LISTEN      68821/redis-server  
tcp        0      0 192.168.94.11:7001      0.0.0.0:*               LISTEN      68823/redis-server  
tcp        0      0 192.168.94.11:7002      0.0.0.0:*               LISTEN      68828/redis-server

安装ruby

[root@redis01 redis-cluster]# yum -y install rh-ruby23
[root@redis01 redis-cluster]# ruby -v
ruby 2.0.0p648 (2015-12-16) [x86_64-linux]
[root@redis01 redis-cluster]# scl enable rh-ruby23 bash
[root@redis01 redis-cluster]# ruby -v
ruby 2.3.6p384 (2017-12-14 revision 61254) [x86_64-linux]

安装ruby的redis扩展

[root@redis01 redis-cluster]# gem install redis
Fetching: redis-4.0.2.gem (100%)
Successfully installed redis-4.0.2
Parsing documentation for redis-4.0.2
Installing ri documentation for redis-4.0.2
Done installing documentation for redis after 0 seconds
1 gem installed

使用redis自带的集群管理工具创建集群

# 在任意一台上运行即可,不要在每台机器上都运行
[root@redis01 redis-cluster]# redis-trib.rb create --replicas 1 192.168.94.11:7000 192.168.94.11:7001 192.168.94.11:7002 192.168.94.22:7003 192.168.94.22:7004 192.168.94.22:7005 192.168.94.33:7006 192.168.94.33:7007 192.168.94.33:7008
>>> Creating cluster
>>> Performing hash slots allocation on 9 nodes...
Using 4 masters:
192.168.94.11:7000
192.168.94.22:7003
192.168.94.33:7006
192.168.94.11:7001
Adding replica 192.168.94.22:7004 to 192.168.94.11:7000
Adding replica 192.168.94.33:7007 to 192.168.94.22:7003
Adding replica 192.168.94.11:7002 to 192.168.94.33:7006
Adding replica 192.168.94.22:7005 to 192.168.94.11:7001
Adding replica 192.168.94.33:7008 to 192.168.94.11:7000
M: d8138e15d9cb69962abb7457125a7965b735a658 192.168.94.11:7000
   slots:0-4095 (4096 slots) master
M: 72f44da597f73c8d23c6d3fb60fa95489eb0168d 192.168.94.11:7001
   slots:12288-16383 (4096 slots) master
S: 711af78396c3ba966f751beef745ae10ff053a3f 192.168.94.11:7002
   replicates af2e1c600ed2511155a6cad61cabeb095affff86
M: 691428ae7c1728a76520b8f9d46fa6d83930f191 192.168.94.22:7003
   slots:4096-8191 (4096 slots) master
S: e752d865374c8ca4149737d81f19ac95cc9f6a44 192.168.94.22:7004
   replicates d8138e15d9cb69962abb7457125a7965b735a658
S: ba4ce74ba7b84bde9ea60cd8bf4c5996f1ca01e5 192.168.94.22:7005
   replicates 72f44da597f73c8d23c6d3fb60fa95489eb0168d
M: af2e1c600ed2511155a6cad61cabeb095affff86 192.168.94.33:7006
   slots:8192-12287 (4096 slots) master
S: b1e201b2acdc0a0740a764978436fa3946325a11 192.168.94.33:7007
   replicates 691428ae7c1728a76520b8f9d46fa6d83930f191
S: 6913f44486938c49eed6efa6f18c782df73e6456 192.168.94.33:7008
   replicates d8138e15d9cb69962abb7457125a7965b735a658
Can I set the above configuration? (type 'yes' to accept): yes
>>> Nodes configuration updated
>>> Assign a different config epoch to each node
>>> Sending CLUSTER MEET messages to join the cluster
Waiting for the cluster to join........
>>> Performing Cluster Check (using node 192.168.94.11:7000)
M: d8138e15d9cb69962abb7457125a7965b735a658 192.168.94.11:7000
   slots:0-4095 (4096 slots) master
   2 additional replica(s)
S: b1e201b2acdc0a0740a764978436fa3946325a11 192.168.94.33:7007
   slots: (0 slots) slave
   replicates 691428ae7c1728a76520b8f9d46fa6d83930f191
S: e752d865374c8ca4149737d81f19ac95cc9f6a44 192.168.94.22:7004
   slots: (0 slots) slave
   replicates d8138e15d9cb69962abb7457125a7965b735a658
M: 691428ae7c1728a76520b8f9d46fa6d83930f191 192.168.94.22:7003
   slots:4096-8191 (4096 slots) master
   1 additional replica(s)
M: af2e1c600ed2511155a6cad61cabeb095affff86 192.168.94.33:7006
   slots:8192-12287 (4096 slots) master
   1 additional replica(s)
M: 72f44da597f73c8d23c6d3fb60fa95489eb0168d 192.168.94.11:7001
   slots:12288-16383 (4096 slots) master
   1 additional replica(s)
S: 711af78396c3ba966f751beef745ae10ff053a3f 192.168.94.11:7002
   slots: (0 slots) slave
   replicates af2e1c600ed2511155a6cad61cabeb095affff86
S: ba4ce74ba7b84bde9ea60cd8bf4c5996f1ca01e5 192.168.94.22:7005
   slots: (0 slots) slave
   replicates 72f44da597f73c8d23c6d3fb60fa95489eb0168d
S: 6913f44486938c49eed6efa6f18c782df73e6456 192.168.94.33:7008
   slots: (0 slots) slave
   replicates d8138e15d9cb69962abb7457125a7965b735a658
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.# 三个服务器启动了9个实例,配置成4主5从,其中一个是一主两从,其他都是一主一从

集群验证

选项 -c 可连接集群, 因为配置文件中bind改成了ip所以必须要用 -h 选项,-p选项后接端口号

# 在redis01上的7000端口的实例上set一个key
[root@redis01 redis-cluster]# redis-cli -h 192.168.94.11 -c -p 7000
192.168.94.11:7000> set name weihan
-> Redirected to slot [5798] located at 192.168.94.22:7003
OK
192.168.94.22:7003> get name
"weihan"
# 由上可见 , redis01 set name 后,将数据重定向到了redis02的7003端口的实例上
# 在redis03的7008实例上get一个key
[root@redis01 redis-cluster]# redis-cli -h 192.168.94.33 -c -p 7008
192.168.94.33:7008> get name
-> Redirected to slot [5798] located at 192.168.94.22:7003
"weihan"
192.168.94.22:7003>
# get name 还是会重定向到7003这个实例上 , 这说明redis cluster集群已经是可用的了

检查集群状态(4个master会分配到4个服务器上, 而且每个服务器上必须有一个master,创建集群的时候可以指定master,我创建的时候没指定,是默认分配)

[root@redis01 redis-cluster]# redis-trib.rb check 192.168.94.11:7000
>>> Performing Cluster Check (using node 192.168.94.11:7000)
M: d8138e15d9cb69962abb7457125a7965b735a658 192.168.94.11:7000
   slots:0-4095 (4096 slots) master
   2 additional replica(s)
S: b1e201b2acdc0a0740a764978436fa3946325a11 192.168.94.33:7007
   slots: (0 slots) slave
   replicates 691428ae7c1728a76520b8f9d46fa6d83930f191
S: e752d865374c8ca4149737d81f19ac95cc9f6a44 192.168.94.22:7004
   slots: (0 slots) slave
   replicates d8138e15d9cb69962abb7457125a7965b735a658
M: 691428ae7c1728a76520b8f9d46fa6d83930f191 192.168.94.22:7003
   slots:4096-8191 (4096 slots) master
   1 additional replica(s)
M: af2e1c600ed2511155a6cad61cabeb095affff86 192.168.94.33:7006
   slots:8192-12287 (4096 slots) master
   1 additional replica(s)
M: 72f44da597f73c8d23c6d3fb60fa95489eb0168d 192.168.94.11:7001
   slots:12288-16383 (4096 slots) master
   1 additional replica(s)
S: 711af78396c3ba966f751beef745ae10ff053a3f 192.168.94.11:7002
   slots: (0 slots) slave
   replicates af2e1c600ed2511155a6cad61cabeb095affff86
S: ba4ce74ba7b84bde9ea60cd8bf4c5996f1ca01e5 192.168.94.22:7005
   slots: (0 slots) slave
   replicates 72f44da597f73c8d23c6d3fb60fa95489eb0168d
S: 6913f44486938c49eed6efa6f18c782df73e6456 192.168.94.33:7008
   slots: (0 slots) slave
   replicates d8138e15d9cb69962abb7457125a7965b735a658
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.

列出集群节点

[root@redis01 redis-cluster]# redis-cli -h 192.168.94.11 -c -p 7000
192.168.94.11:7000> CLUSTER NODES
b1e201b2acdc0a0740a764978436fa3946325a11 192.168.94.33:7007@17007 slave 691428ae7c1728a76520b8f9d46fa6d83930f191 0 1539016061737 8 connected
e752d865374c8ca4149737d81f19ac95cc9f6a44 192.168.94.22:7004@17004 slave d8138e15d9cb69962abb7457125a7965b735a658 0 1539016062000 5 connected
691428ae7c1728a76520b8f9d46fa6d83930f191 192.168.94.22:7003@17003 master - 0 1539016064655 4 connected 4096-8191
af2e1c600ed2511155a6cad61cabeb095affff86 192.168.94.33:7006@17006 master - 0 1539016062000 7 connected 8192-12287
72f44da597f73c8d23c6d3fb60fa95489eb0168d 192.168.94.11:7001@17001 master - 0 1539016063648 2 connected 12288-16383
711af78396c3ba966f751beef745ae10ff053a3f 192.168.94.11:7002@17002 slave af2e1c600ed2511155a6cad61cabeb095affff86 0 1539016063000 7 connected
d8138e15d9cb69962abb7457125a7965b735a658 192.168.94.11:7000@17000 myself,master - 0 1539016063000 1 connected 0-4095
ba4ce74ba7b84bde9ea60cd8bf4c5996f1ca01e5 192.168.94.22:7005@17005 slave 72f44da597f73c8d23c6d3fb60fa95489eb0168d 0 1539016063000 6 connected
6913f44486938c49eed6efa6f18c782df73e6456 192.168.94.33:7008@17008 slave d8138e15d9cb69962abb7457125a7965b735a658 0 1539016063000 9 connected

打印集群信息

192.168.94.11:7000> CLUSTER INFO
cluster_state:ok
cluster_slots_assigned:16384
cluster_slots_ok:16384
cluster_slots_pfail:0
cluster_slots_fail:0
cluster_known_nodes:9
cluster_size:4
cluster_current_epoch:9
cluster_my_epoch:1
cluster_stats_messages_ping_sent:1240
cluster_stats_messages_pong_sent:1251
cluster_stats_messages_sent:2491
cluster_stats_messages_ping_received:1243
cluster_stats_messages_pong_received:1240
cluster_stats_messages_meet_received:8
cluster_stats_messages_received:2491

指定redis cluster中的master和slave 可以用下面的方法

# 添加主库
[root@redis01 redis-cluster]# redis-trib.rb create 192.168.94.11:7000 192.168.94.22:7003 192.168.94.33:7006
# 添加从库
[root@redis01 redis-cluster]# redis-trib.rb add-node --slave 192.168.94.22:7001 192.168.94.11:7000    # 把192.168.94.11的7001 作为从库添加到192.168.94.11的7000
点赞
收藏
评论区
推荐文章
blmius blmius
2年前
MySQL:[Err] 1292 - Incorrect datetime value: ‘0000-00-00 00:00:00‘ for column ‘CREATE_TIME‘ at row 1
文章目录问题用navicat导入数据时,报错:原因这是因为当前的MySQL不支持datetime为0的情况。解决修改sql\mode:sql\mode:SQLMode定义了MySQL应支持的SQL语法、数据校验等,这样可以更容易地在不同的环境中使用MySQL。全局s
Jacquelyn38 Jacquelyn38
2年前
2020年前端实用代码段,为你的工作保驾护航
有空的时候,自己总结了几个代码段,在开发中也经常使用,谢谢。1、使用解构获取json数据let jsonData  id: 1,status: "OK",data: 'a', 'b';let  id, status, data: number   jsonData;console.log(id, status, number )
皕杰报表之UUID
​在我们用皕杰报表工具设计填报报表时,如何在新增行里自动增加id呢?能新增整数排序id吗?目前可以在新增行里自动增加id,但只能用uuid函数增加UUID编码,不能新增整数排序id。uuid函数说明:获取一个UUID,可以在填报表中用来创建数据ID语法:uuid()或uuid(sep)参数说明:sep布尔值,生成的uuid中是否包含分隔符'',缺省为
Stella981 Stella981
2年前
KVM调整cpu和内存
一.修改kvm虚拟机的配置1、virsheditcentos7找到“memory”和“vcpu”标签,将<namecentos7</name<uuid2220a6d1a36a4fbb8523e078b3dfe795</uuid
Stella981 Stella981
2年前
Nginx + lua +[memcached,redis]
精品案例1、Nginxluamemcached,redis实现网站灰度发布2、分库分表/基于Leaf组件实现的全球唯一ID(非UUID)3、Redis独立数据监控,实现订单超时操作/MQ死信操作SelectPollEpollReactor模型4、分布式任务调试Quartz应用
Easter79 Easter79
2年前
Twitter的分布式自增ID算法snowflake (Java版)
概述分布式系统中,有一些需要使用全局唯一ID的场景,这种时候为了防止ID冲突可以使用36位的UUID,但是UUID有一些缺点,首先他相对比较长,另外UUID一般是无序的。有些时候我们希望能使用一种简单一些的ID,并且希望ID能够按照时间有序生成。而twitter的snowflake解决了这种需求,最初Twitter把存储系统从MySQL迁移
Wesley13 Wesley13
2年前
00:Java简单了解
浅谈Java之概述Java是SUN(StanfordUniversityNetwork),斯坦福大学网络公司)1995年推出的一门高级编程语言。Java是一种面向Internet的编程语言。随着Java技术在web方面的不断成熟,已经成为Web应用程序的首选开发语言。Java是简单易学,完全面向对象,安全可靠,与平台无关的编程语言。
Stella981 Stella981
2年前
Django中Admin中的一些参数配置
设置在列表中显示的字段,id为django模型默认的主键list_display('id','name','sex','profession','email','qq','phone','status','create_time')设置在列表可编辑字段list_editable
Wesley13 Wesley13
2年前
MySQL部分从库上面因为大量的临时表tmp_table造成慢查询
背景描述Time:20190124T00:08:14.70572408:00User@Host:@Id:Schema:sentrymetaLast_errno:0Killed:0Query_time:0.315758Lock_
Python进阶者 Python进阶者
3个月前
Excel中这日期老是出来00:00:00,怎么用Pandas把这个去除
大家好,我是皮皮。一、前言前几天在Python白银交流群【上海新年人】问了一个Pandas数据筛选的问题。问题如下:这日期老是出来00:00:00,怎么把这个去除。二、实现过程后来【论草莓如何成为冻干莓】给了一个思路和代码如下:pd.toexcel之前把这