经验首页 前端设计 程序设计 Java相关 移动开发 数据库/运维 软件/图像 大数据/云计算 其他经验
当前位置:技术经验 » 数据库/运维 » Redis » 查看文章
Redis 集群伸缩原理
来源:cnblogs  作者:LB477  时间:2021/5/17 9:16:42  对本文有异议

Redis 节点分别维护自己负责的槽和对应的数据。伸缩原理:Redis 槽和对应数据在不同节点之间移动

环境:CentOS7 搭建 Redis 集群

一、集群扩容

1. 手动扩容

(1) 准备节点 9007,并加入集群

  1. 192.168.11.40:9001> cluster meet 192.168.11.40 9007

【注意】若 cluster meet 加入已存在于其它集群的节点,会导致集群合并,造成数据错乱!。建议使用 redis-cli 的 add-node:

  1. # 若节点已加入其它集群或包含数据,会报错
  2. add-node new_host:new_port existing_host:existing_port
  3. --cluster-slave # 直接添加为从节点
  4. --cluster-master-id <arg> # 从节点对应的主节点id

(2) 迁移槽和数据

  • 槽在迁移过程中集群可以正常提供读写服务
  • 首先确定原有节点的哪些槽需要迁移到新节点。确保每个节点负责相似数量的槽,保证各节点的数据均匀
  • 槽是 Redis 集群管理数据的基本单位。数据迁移是逐槽进行

槽迁移流程:

槽迁移流程

  • 目标节点准备导入槽的数据:目标节点执行cluster setslot {slot} importing {sourceNodeId}
  • 源节点准备迁出槽的数据:源节点执行cluster setslot {slot} migrating {targetNodeId}
  • 获取 count 个属于槽 slot 的键:源节点执行cluster getkeysinslot {slot} {count}
  • 迁移键:源节点执行migrate {targetIp} {targetPort} "" 0 {timeout} keys {keys...},把键通过流水线(pipeline)机制批量迁移到目标节点。Redis3.0.6 后才支持批量迁移
  • 重复上两步,直到槽下所有的键值数据迁移到目标节点
  • 向集群所有主节点通知槽被分配给目标节点:集群内所有主节点执行cluster setslot {slot} node {targetNodeId}

内部伪代码:

  1. def move_slot(source,target,slot):
  2. # 目标节点准备导入槽
  3. target.cluster("setslot",slot,"importing",source.nodeId);
  4. # 目标节点准备全出槽
  5. source.cluster("setslot",slot,"migrating",target.nodeId);
  6. while true :
  7. # 批量从源节点获取键
  8. keys = source.cluster("getkeysinslot",slot,pipeline_size);
  9. if keys.length == 0:
  10. # 键列表为空时,退出循环
  11. break;
  12. # 批量迁移键到目标节点
  13. source.call("migrate",target.host,target.port,"",0,timeout,"keys",keys);
  14. # 向集群所有主节点通知槽被分配给目标节点
  15. for node in nodes:
  16. if node.flag == "slave":
  17. continue;
  18. node.cluster("setslot",slot,"node",target.nodeId);

(3) 将 9001 的槽 4096 迁移到 9007 中

准备数据

  1. 192.168.11.40:9001> set key:test:5028 value:5028
  2. 192.168.11.40:9001> set key:test:68253 value:68253

目标节点准备工作

  1. 192.168.11.40:9007> cluster nodes
  2. 8ccdb0963411ebd05ce21952bdd4b7597825afdc 192.168.11.40:9001@19001 master - 0 1620928869000 2 connected 0-5461
  3. bb1bb0f5f9e0ee67846ba8ec94a38da700e2e80d 192.168.11.40:9007@19007 myself,master - 0 1620928868000 0 connected
  4. ...
  5. # 9007 准备导入槽 4096 的数据
  6. 192.168.11.40:9007> cluster setslot 4096 importing 8ccdb0963411ebd05ce21952bdd4b7597825afdc
  7. OK
  8. # 槽 4096 已开启导入状态
  9. 192.168.11.40:9007> cluster nodes
  10. bb1bb0f5f9e0ee67846ba8ec94a38da700e2e80d 192.168.11.40:9007@19007 myself,master - 0 1620928959000 0 connected [4096-<-8ccdb0963411ebd05ce21952bdd4b7597825afdc]
  11. ...

源节点准备工作

  1. # 9001 准备导出槽 4096 数据
  2. 192.168.11.40:9001> cluster setslot 4096 migrating bb1bb0f5f9e0ee67846ba8ec94a38da700e2e80d
  3. OK
  4. # 槽 4096 已开启导出状态
  5. 192.168.11.40:9001> cluster nodes
  6. 8ccdb0963411ebd05ce21952bdd4b7597825afdc 192.168.11.40:9001@19001 myself,master - 0 1620929179000 2 connected 0-5461 [4096->-bb1bb0f5f9e0ee67846ba8ec94a38da700e2e80d]
  7. ...

导出数据

  1. # 获取 100 个属于槽 4096 的键
  2. 192.168.11.40:9001> cluster getkeysinslot 4096 100
  3. 1) "key:test:5028"
  4. 2) "key:test:68253"
  5. # 查看数据
  6. 192.168.11.40:9001> mget key:test:5028 key:test:68253
  7. 1) "value:5028"
  8. 2) "value:68253"
  9. # 迁移这2个键:migrate 命令保证了每个键迁移过程的原子性
  10. 192.168.11.40:9001> migrate 192.168.11.40 9007 "" 0 5000 keys key:test:5028 key:test:68253
  11. OK
  12. # 再次查询会报 ASK 错误:引导客户端找到数据所在的节点
  13. 192.168.11.40:9001> mget key:test:5028 key:test:68253
  14. (error) ASK 4096 192.168.11.40:9007

通知所有主节点:槽 4096 指派给 9007

  1. 192.168.11.40:9001> cluster setslot 4096 node bb1bb0f5f9e0ee67846ba8ec94a38da700e2e80d
  2. 192.168.11.40:9002> cluster setslot 4096 node bb1bb0f5f9e0ee67846ba8ec94a38da700e2e80d
  3. 192.168.11.40:9003> cluster setslot 4096 node bb1bb0f5f9e0ee67846ba8ec94a38da700e2e80d
  4. 192.168.11.40:9007> cluster setslot 4096 node bb1bb0f5f9e0ee67846ba8ec94a38da700e2e80d

查看最终结果

  1. 192.168.11.40:9007> cluster nodes
  2. 8ccdb0963411ebd05ce21952bdd4b7597825afdc 192.168.11.40:9001@19001 master - 0 1620931743303 7 connected 0-4095 4097-5461
  3. bb1bb0f5f9e0ee67846ba8ec94a38da700e2e80d 192.168.11.40:9007@19007 myself,master - 0 1620931741000 8 connected 4096
  4. ...

2. 使用 redis-cli 扩容

redis-cli 提供了槽重分片功能

reshard 命令参数详解:

  1. reshard host:port # 集群内任意节点地址
  2. --cluster-from <arg> # 源节点id,逗号分隔
  3. --cluster-to <arg> # 目标节点id,只有一个
  4. --cluster-slots <arg> # 迁移多少个槽
  5. --cluster-yes # 确认执行reshard
  6. --cluster-timeout <arg> # 每次 migrate 操作的超时时间,默认 60000ms
  7. --cluster-pipeline <arg> # 每次批量迁移键的数量,默认 10
  8. --cluster-replace

将 9001、9002、9003 的槽迁移到 9007,共迁移 4096 个

  1. $ /usr/local/redis/bin/redis-cli --cluster reshard 192.168.11.40:9001
  2. M: 8ccdb0963411ebd05ce21952bdd4b7597825afdc 192.168.11.40:9001
  3. slots:[0-4095],[4097-5461] (5461 slots) master
  4. 1 additional replica(s)
  5. M: bb1bb0f5f9e0ee67846ba8ec94a38da700e2e80d 192.168.11.40:9007
  6. slots:[4096] (1 slots) master
  7. ...
  8. [OK] All 16384 slots covered.
  9. How many slots do you want to move (from 1 to 16384)? 4096
  10. What is the receiving node ID? bb1bb0f5f9e0ee67846ba8ec94a38da700e2e80d
  11. Please enter all the source node IDs.
  12. Type 'all' to use all the nodes as source nodes for the hash slots.
  13. Type 'done' once you entered all the source nodes IDs.
  14. Source node #1: 8ccdb0963411ebd05ce21952bdd4b7597825afdc
  15. Source node #2: 5786e3237c7fa413ed22465d15be721f95e72cfa
  16. Source node #3: 85ceb9826e8aa003169c46fb4ba115c72002d4f9
  17. Source node #4: done
  18. Moving slot 0 from 8ccdb0963411ebd05ce21952bdd4b7597825afdc
  19. ...
  20. Moving slot 12287 from 85ceb9826e8aa003169c46fb4ba115c72002d4f9
  21. Do you want to proceed with the proposed reshard plan (yes/no)? yes
  22. Moving slot 0 from 192.168.11.40:9001 to 192.168.11.40:9007:
  23. ...
  24. Moving slot 12287 from 192.168.11.40:9003 to 192.168.11.40:9007:

查看最终结果

  1. 192.168.11.40:9007> cluster nodes
  2. 8ccdb0963411ebd05ce21952bdd4b7597825afdc 192.168.11.40:9001@19001 master - 0 1620933907753 7 connected 1366-4095 4097-5461
  3. 5786e3237c7fa413ed22465d15be721f95e72cfa 192.168.11.40:9002@19002 master - 0 1620933906733 1 connected 6827-10922
  4. 85ceb9826e8aa003169c46fb4ba115c72002d4f9 192.168.11.40:9003@19003 master - 0 1620933905000 3 connected 12288-16383
  5. bb1bb0f5f9e0ee67846ba8ec94a38da700e2e80d 192.168.11.40:9007@19007 myself,master - 0 1620933900000 8 connected 0-1365 4096 5462-6826 10923-12287
  6. ...

检查节点之间槽的均衡性

  1. $ /usr/local/redis/bin/redis-cli --cluster rebalance 192.168.11.40:9001
  2. ...
  3. [OK] All 16384 slots covered.
  4. *** No rebalancing needed! All nodes are within the 2.00% threshold.

迁移之后所有主节点负责的槽数量差异在 2% 以内,因此集群节点数据相对均匀,无需调整

二、集群收缩

节点下线流程

1. 迁移槽

执行 reshard 三次,将数据平均分布到其他三个节点

2. 忘记节点

60s 内对所有节点执行如下操作:(不建议)

  1. # 执行后,会将该节点加入禁用列表(持续 60s),不再向其发送 Gossip 消息
  2. cluster forget {nodeId}

建议使用 redis-cli 的 del-node 忘记节点:

  1. /usr/local/redis/bin/redis-cli --cluster del-node {host:port} {nodeId}

内部伪代码

  1. def delnode_cluster_cmd(downNode):
  2. # 下线节点不允许包含slots
  3. if downNode.slots.length != 0
  4. exit 1
  5. end
  6. # 向集群内节点发送cluster forget
  7. for n in nodes:
  8. if n.id == downNode.id:
  9. # 不能对自己做forget操作
  10. continue;
  11. # 如果下线节点有从节点则把从节点指向其他主节点
  12. if n.replicate && n.replicate.nodeId == downNode.id :
  13. # 指向拥有最少从节点的主节点
  14. master = get_master_with_least_replicas();
  15. n.cluster("replicate",master.nodeId);
  16. #发送忘记节点命令
  17. n.cluster('forget',downNode.id)
  18. # 节点关闭
  19. downNode.shutdown();

若主从节点都要下线,先下线从,避免全量复制

原文链接:http://www.cnblogs.com/lb477/p/14767695.html

 友情链接:直通硅谷  点职佳  北美留学生论坛

本站QQ群:前端 618073944 | Java 606181507 | Python 626812652 | C/C++ 612253063 | 微信 634508462 | 苹果 692586424 | C#/.net 182808419 | PHP 305140648 | 运维 608723728

W3xue 的所有内容仅供测试,对任何法律问题及风险不承担任何责任。通过使用本站内容随之而来的风险与本站无关。
关于我们  |  意见建议  |  捐助我们  |  报错有奖  |  广告合作、友情链接(目前9元/月)请联系QQ:27243702 沸活量
皖ICP备17017327号-2 皖公网安备34020702000426号