一、Ceph简介
Ceph 是一个高性能、高可靠、高可扩展的分布式对象存储和文件系统。
Proxmox VE 集成的 Ceph 优势有:
可以通过 CLI 和 GUI 轻松安装管理 支持薄模式存储 支持快照 自动修复 容量最大可扩充至 exabyte 级别 支持多种性能和冗余级别的存储池 多副本,高容错 可在低成本硬件运行 无需硬件 raid 控制器 开源软件
二、Ceph的安装
web向导安装
PS:向导安装ceph,安装过程中窗口关闭会终端安装。
以上操作可以在host节点—-shell 中命令操作
pveceph install
二、Ceph配置
1、初始化Ceph
2、创建Ceph monitor
Ceph Monitor(MON)维护集群映射的主副本。要实现高可用性,至少需要 3 台Monitor。安装向导安装方式会自动安装一个Monitor,中小型集群不需要超过3 台Monitor,只有那些真正大型的集群才需要更多的Monitor。
3、创建Ceph Manger
Ceph Manager 是独立于 monitor 的另一个服务。主要提供监控 Ceph 集群运行状态的接口。从 luminous 版本开始,ceph-mgr服务成为 Ceph 必选组件。向导安装时Ceph manager 一般和 monitor同时完成安装。
建议将 Ceph Manager 部署在 monitor 节点上。并考虑安装多个 Cepn Manager,以满足高可用要求。
4、创建Ceph OSD
可以通过 GUI 或命令行创建 OSD。创建命令如下:
pveceph osd create /dev/sd[X]
建议至少为 Ceph 集群创建 12 个 OSD,并平均分配到集群的各节点。在最小的 3 节点集群下,每个节点部署 4 个 OSD。 如磁盘之前已经被格式化过(如 ZFS/RAID/OSD),可用以下命令删除分区表、引导扇区和其他 OSD 遗留数据。 ceph-volume lvm zap /dev/sd[X] --destroy 如果以上命令清不掉 wipefs -af /dev/sd[X] 以上命令将删除磁盘上的所有数据。 partprobe /dev/sd[X] #刷新结果 lsblk #查看结果
WEB创建OSD
5、创建Ceph Pool
存储池 pool 是一组存储对象的逻辑集合。由一组 Placement Groups(PG,pg_num)的对象集合组成。