本文共 735 字,大约阅读时间需要 2 分钟。
参考 文档记录了如何进行 ceph 扩容的部署过程
最后一步, 需要对 ceph crushmap 进行重定义
新加入 3 台存储节点, 每个存储节点具有 10 个 OSD 节点, 每个 OSD 对应 4TB 空间, 即共增加 3* 10 * 4TB = 120 TB
由于一直都有业务在 ceph 存储中使用, 假如立即把所有新加入的 ceph 节点存储使用率设定为 100% 会导致 ceph 集群处于一个维护期中, CPU, 网络带宽都会被需要进行恢复的 ceph 影响, 所有业务都会出现数据卡顿问题,
因此, 计划每天晚上只对 ceph osd 进行部分部分扩容,
3台存储节点, 每个存储节点具有 10 个OSD 节点, 每个 OSD 对应 4TB 空间, 每个 OSD 晚上扩展 200GB 空间, 即 3 * 10 * 200GB = 6TB 空间
我们从 2015-12-26 开始, 对 ceph 通过修改 weight 方法, 对 ceph 进行扩容, 每次扩容约为 CEPH 添加 6 TB 磁盘空间
参考脚本
#!/bin/bash## edit by terry.zeng@vipshop.com# last_version: 2015-12-25# modify: reweight -> 0.5 || ceph status ( grep 'misplaced' )## 目标: 自动进行 ceph weight 调整,# 条件# 调整时间 start_time 1, end_time 8 之间# ceph 必须是 health_ok 状态# 最大可用 weight
转载地址:http://jmnni.baihongyu.com/