日本免费高清视频-国产福利视频导航-黄色在线播放国产-天天操天天操天天操天天操|www.shdianci.com

學無先后,達者為師

網站首頁 編程語言 正文

linux下ceph分布式安裝使用教程_Linux

更新時間: 2021-12-06 編程語言

前言

k8s集群使用什么樣的存儲比較好那,我調研了一下分布式存儲ceph,在這里分享給大家。

一、基礎環境

1、服務分布情況

Node1: admin,osd,mon
Node2: osd,mds, client

2、 網絡配置 (所有節點)

修改主機名, 切記主機名不能出現下劃線
修改主機名(/etc/hostname):
hostnamectl set-hostname  node1
hostnamectl set-hostname  node2

修改 /etc/hosts 加入
vim /etc/hosts
192.168.84.131 node1
192.168.84.132 node2

3、SSH免密訪問 (所有節點)

ssh-keygen 
ssh-copy-id -i id_rsa.pub root@192.168.84.131

二、安裝

1、將新掛載的硬盤格式化,作為osd的存儲(有osd節點的都要做)

mkfs.xfs /dev/sdb
blkid /dev/sdb
mkdir -p /data/osd
vim /etc/fstab 
UUID="57493ebb-6744-4355-a7f6-ec7538b4b65e" /data/osd             xfs     defaults        0 0
mount -a

2、在管理節點node1安裝ceph-deploy管理工具

(1)配置yum源

vim /etc/yum.repos.d/ceph.repo
[ceph]
name=ceph
baseurl=http://mirrors.aliyun.com/ceph/rpm-jewel/el7/x86_64/
gpgcheck=0
priority=1
 
[ceph-noarch]
name=cephnoarch
baseurl=http://mirrors.aliyun.com/ceph/rpm-jewel/el7/noarch/
gpgcheck=0
priority=1
 
[ceph-source]
name=Ceph source packages
baseurl=http://mirrors.aliyun.com/ceph/rpm-jewel/el7/SRPMS
gpgcheck=0
priority=1

#清楚yum緩存,重新加載
yum clean all
yum makecache

(2)安裝ceph-deploy管理工具

yum -y install ceph-deploy

(3)創建Monitor服務

mkdir /data/ceph
cd /data/ceph/
ceph-deploy new node1

在這里插入圖片描述

ceph.conf 				   ceph的配置文件
ceph-deploy-ceph.log       ceph日志
ceph.mon.keyring           ceph monitor密鑰環文件

#如果想要修改守護進程數,也就是副本數,可以在ceph.conf配置文件中添加如下行
osd_pool_default_size = 1        ##副本數

3、在所有主機上安裝ceph

ceph-deploy install node1 node2

#上面這個命令是去官方服務器下載安裝,相當慢一般不會這樣用。之前管理節點node1配置過ceph的阿里云的源,可以直接yum安裝。不過另外主機node2需要先配置yum源,再安裝。

yum -y install epel-release
yum -y install ceph-release
yum -y install ceph ceph-radosgw

4、在管理節點上安裝Monitor(監控)

cd /data/ceph/
ceph-deploy mon create node1
ceph-deploy gatherkeys node1

在這里插入圖片描述

5、創建osd

#前面已經創建過osd目錄并掛載,這里只需要創建osd節點即可。
ceph-deploy osd prepare node1:/data/osd node2:/data/osd

在不同的主機上可以看到,對應的節點會生成文件

在這里插入圖片描述在這里插入圖片描述

6、激活osd

#在管理節點node1上激活各節點的osd
ceph-deploy osd activate node1:/data/osd node2:/data/osd

在這里插入圖片描述

#上圖可以明顯看出是權限不足的原因,直接授權777
chmod 777 -R /data/osd/

#重新執行激活
ceph-deploy osd activate node1:/data/osd node2:/data/osd

激活完成后可以使用命令查看osd

ceph-deploy osd list node1     #也可以查看多個節點,中間用空格隔開

在這里插入圖片描述

#使用命令將配置文件和admin密鑰同步到各個節點,以便各個節點使用ceph命令時無需指定Monitor地址和ceph.client.admin.keyring密鑰。注意:還需要修改各個節點ceph.client.admin.keyring密鑰的權限

ceph-deploy admin node1 node2
node1:
cd /data/ceph
chmod +r ceph.client.admin.keyring

node2:
cd /etc/ceph
chmod +r ceph.client.admin.keyring

最后查看osd狀態:
ceph health

在這里插入圖片描述

7、部署mds

ceph-deploy mds create node2
ceph mds stat

查看集群狀態:
ceph -s

結語

集群狀態當時忘記截圖了,執行ceph -s 命令,大家只要看到包含“HEALTH_OK”的字樣,集群就部署成功了。

原文鏈接:https://blog.csdn.net/qq_37837432/article/details/121592077

欄目分類
最近更新