Ceph支持在一个已有的集群中增加一个带有一组磁盘的新节点来扩展其容量,而且在服务部宕机的情况下进行扩展。
1: 在新节点上安装ceph软件包,保证和ceph集群的软件版本一致
#ceph-deploy install ceph-node3 --release jewel2: 列出新节点上所有可用磁盘
#ceph-deploy disk list ceph-node33: 将ceph-node3上的磁盘加入到ceph集群
#ceph-deploy disk zap ceph-node3:sdb ceph-node3:sdc ceph-node3:sdd#ceph-deploy osd create ceph-node3:sdb ceph-node3:sdc ceph-node3:sdd当新的节点加入集群,ceph集群开始将部分现有的数据重新平衡到新加入的OSD上,用下面的命令可用观察平衡过程。
#watch ceph -s4:检查集群的存储容量
#rados df5: 查看OSD tree,查看新加入的OSD
#ceph osd tree注意:在生产环境中,一般不会再新节点加入ceph集群后,立即开始数据回填,这样会影响集群性能。所以我们需要设置一些标志位,来完成这个目的。
#ceph osd set noin#ceph osd set nobackfill在用户访问的非高峰时,取消这些标志位,集群开始在平衡任务。
#ceph osd unset noin#ceph osd unset nobackfill
阅读全文: