跳至主要内容

儲存架構

Infra Labs 使用 Ceph 作為統一儲存後端,從單一叢集提供 block(RBD)、object(RGW/S3)及 filesystem(CephFS)服務。Ceph 叢集橫跨五台 OSD 主機,共 17 個 OSD,組織為三個裝置類別層級:NVMe 用於高效能工作負載、SATA SSD 用於具成本效益的持久性儲存、HDD 用於大容量儲存及備份。


設計原則

  • 單一叢集、多層級——一個 Ceph 叢集服務所有儲存需求。CRUSH 規則根據效能需求將資料導向適當的裝置類別。
  • 與 OpenStack 緊密整合——Nova、Cinder、Glance 及 Cinder Backup 均使用原生 RBD 驅動程式。物件儲存由 Ceph RGW 提供,並整合 Keystone 認證。
  • 主機層級 failure domain——所有 CRUSH 規則以 host 作為 failure domain,確保副本分佈在不同的實體伺服器上。
  • Cephadm 部署——叢集由 Cephadm 管理,透過容器化模型處理 daemon 生命週期、升級及監控。

叢集概覽

參數數值
版本Tentacle(Ceph 20.x)
部署工具Cephadm
MON daemon3(openstack01、openstack02、openstack04)
MGR daemon2(openstack02 active、openstack01 standby)
OSD daemon17
RGW daemon3(每台控制主機一個,single zone)

儲存層級

層級裝置類別主機OSD 數量原始容量主要用途
NVMenvmeopenstack01、02、04820.96 TiBVM volumes(volumes)、ephemeral disks(vms)、RGW metadata
SATA SSDsata_ssdopenstack01、02、0534.38 TiB具成本效益的 volumes(volumes-sata-ssd
HDDhddopenstack04、05、06687.30 TiB備份、Glance 映像、RGW bucket 資料

OpenStack 整合摘要

OpenStack 服務Ceph 介面Pool層級
Nova(ephemeral disks)RBDvmsNVMe
Cinder(高效能 volumes)RBDvolumesNVMe
Cinder(標準 volumes)RBDvolumes-sata-ssdSATA SSD
Cinder BackupRBDbackupsHDD
Glance(映像)RBDimagesHDD
Swift / S3(物件儲存)RGWdefault.rgw.buckets.dataHDD

網路

Ceph 流量在 Arista 資料平面 fabric 上透過專用 VLAN 傳輸,MTU 為 9000:

網路子網路VLAN介面用途
Public192.168.114.0/241114bond0(native)用戶端至叢集通訊及 MON 通訊
Cluster192.168.115.0/241115bond0.1115OSD 間複製與復原

子頁面