本篇文章給大家分享的是有關ubuntu14.04使用ceph-deploy配置的分析,小編覺得挺實用的,因此分享給大家學習,希望大家閱讀完這篇文章后可以有所收獲,話不多說,跟著小編一起來看看吧。
分類: ceph 集群 分布式存儲 2015-01-22 14:53 20人閱讀 評論(0) 收藏 編輯 刪除
1.如果以前安裝過ceph,在此機器上運行
sudo stop ceph-all 停止所有ceph進程
ceph-deploy uninstall [{ceph-node}] 卸載所有ceph程序
ceph-deploy purge [[ceph-node} [{ceph-node}] 刪除ceph相關的包
ceph-deploy purgedata {ceph-node} [{ceph-node}] 刪除ceph相關的包
ceph-deploy forgetkeys 刪除key
2。安裝
2.1 mkdir my-cluster
2.2 cd my-cluster/
2.3 ceph-deploy new ceph-admin(此處主機hostname就是ceph.conf中mon初始member)
2.4 vim ceph.conf osd pool default size = 2(此行添加到文件末尾,設置冗余備份為2,若osd>=3,則可以不設置此項)
2.5 ceph-deploy install ceph-admin osd0 osd1 mds 在這幾臺機器上分別安裝ceph
2.6 ceph-deploy mon create-initial 在根據前面ceph.conf中mon的初始化member成員,創建并初始化監視器
2.7 修改權限 chmod 777 ceph.client.admin.keyring ,以及 sudo chmod 777 /etc/ceph/ceph.client.admin.keyring
2.8 ceph-deploy disk list osd0 osd1 列出osd0 ,osd1上面可以用的磁盤
2.9.ceph-deploy disk zap osd0:sdb osd1:sd{b,c} 格式化osd0上的sdb盤;os1上的sdb,sdc盤為xfs
ceph-deploy osd create osd0:sdb osd1:sd{b,c} 在osd0,sdb上創建osd 在osd1,sdb,sdc上創建osd
ceph status 查看ceph 狀態,正常為 health o
2.10 ceph-deploy admin ceph-admin osd0 osd1 mds 拷貝配置文件到每一臺機器上。
2.11 ceph-deploy mds create mds 在mds機器上創建一個元數據服務器mds。
(注意當pool default size是2時:這里當時3個osd時,存在1個pg remap,當時2個osd時,完全是clean正常。根據情況可以調整。)
注意:1.當集群運行起來之后,如果需要添加mon,這使用命令ceph-deploy mon add 而不是ceph-deploy mon create(只能在第一次創建集群的時候使用)。
2. 向多個Mon添加cephfs客戶端時,寫法如下所示: sudo ceph-fuse -k ./ceph.client.admin.keyring -m 10.32.170.104,10.32.170.106,10.32.170.107:6789 /home/ceph/cephfs
3.出現時鐘偏差時,解決如下:ntpdate ipaddress , hwclock --systohc ,如果還未解決,則如下修改:
/etc/ceph/ceph.conf中設置monitor間的允許時鐘偏移最大值
1 2 3 4 | [mon] mon data =/data/$name mon clock drift allowed = 2 mon clock drift warn backoff = 30 |
以上就是ubuntu14.04使用ceph-deploy配置的分析,小編相信有部分知識點可能是我們日常工作會見到或用到的。希望你能通過這篇文章學到更多知識。更多詳情敬請關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。