PROXMOX VE 6.2 集群中CEPH的部署

一、CEPH的安装

web向导安装

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

PS:向导安装ceph,安装过程中窗口关闭会终端安装。
以上操作可以在host节点—-shell 中命令操作

pveceph install
  • 1

二、CEPH配置

1、初始化CEPH

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

2、创建CEPH MONITOR

Ceph Monitor(MON)维护集群映射的主副本。要实现高可用性,至少需要 3 台Monitor。安装向导安装方式会自动安装一个Monitor,中小型集群不需要超过3 台Monitor,只有那些真正大型的集群才需要更多的Monitor。

在这里插入图片描述

在这里插入图片描述

3、创建CEPH MANGER

Ceph Manager 是独立于 monitor 的另一个服务。主要提供监控 Ceph 集群运行状态的接口。从 luminous 版本开始,ceph-mgr服务成为 Ceph 必选组件。向导安装时Ceph manager 一般和 monitor同时完成安装。
建议将 Ceph Manager 部署在 monitor 节点上。并考虑安装多个 Cepn Manager,以满足高可用要求。

在这里插入图片描述

在这里插入图片描述

4、创建CEPH OSD

可以通过 GUI 或命令行创建 OSD。创建命令如下:
pveceph osd create /dev/sd[X]

建议至少为 Ceph 集群创建 12 个 OSD,并平均分配到集群的各节点。在最小的 3 节点集群下,每个节点部署 4 个 OSD。
如磁盘之前已经被格式化过(如 ZFS/RAID/OSD),可用以下命令删除分区表、引导扇区和其他 OSD 遗留数据。
ceph-volume lvm zap /dev/sd[X] --destroy
如果以上命令清不掉
wipefs -af /dev/sd[X]
 以上命令将删除磁盘上的所有数据。
partprobe /dev/sd[X]                  #刷新结果
lsblk                                 #查看结果

WEB创建OSD

在这里插入图片描述

在这里插入图片描述

5、创建CEPH POOL

存储池 pool 是一组存储对象的逻辑集合。由一组 Placement Groups(PG,pg_num)的对象集合组成。

在这里插入图片描述

在这里插入图片描述

暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇
下一篇