Red Hat CEPH 部署硬件配置指導(dǎo)
參考文檔: Red Hat Ceph硬件配置推薦
一 基本原則說明
為Red Hat CEPH系統(tǒng)選擇硬件設(shè)施之前祭陷,首先參考以下基本原則來(lái)選擇有效方案聂使,以節(jié)省成本。
1.1 識(shí)別性能適用場(chǎng)景
成功部署CEPH集群首先要確定用戶的使用特性汰规,并為之選擇合適的硬件汤功。比如,為一個(gè)存儲(chǔ)不頻繁的應(yīng)用場(chǎng)景選擇IOPS優(yōu)先的硬件是沒有必要的溜哮;相反滔金,為一個(gè)IOPS敏感的場(chǎng)景部署一個(gè)存儲(chǔ)優(yōu)先的硬件設(shè)施,即使降低價(jià)格茂嗓,也會(huì)讓用戶抱怨性能太慢餐茵。
CEPH的主要使用場(chǎng)景有以下三種:
IOPS優(yōu)先:適用于云計(jì)算操作,例如在OpenStack上運(yùn)行MYSQL或者M(jìn)ariaDB 實(shí)例述吸。高IOPS場(chǎng)景對(duì)存儲(chǔ)有更高的性能要求忿族,比如15000轉(zhuǎn)的SAS盤和獨(dú)立的SSD日志盤來(lái)處理頻繁寫操作。很多高IO的場(chǎng)景全部使用閃存來(lái)提高IOPS和吞吐量。
吞吐量?jī)?yōu)先:適用于存儲(chǔ)大量重要數(shù)據(jù)并提高服務(wù)道批,比如圖片错英、音頻、視頻內(nèi)容等隆豹。高吞吐量場(chǎng)景對(duì)網(wǎng)絡(luò)設(shè)施椭岩、控制器和硬盤能接受的吞吐有更高的性能要求。在對(duì)寫操作有性能要求的場(chǎng)景下璃赡,SSD日志盤可以顯著提高寫性能判哥。
存儲(chǔ)優(yōu)先:適用于使用最小成本存儲(chǔ)大量重要數(shù)據(jù)。存儲(chǔ)優(yōu)先的部署通常犧牲性能換取更有吸引力的價(jià)格鉴吹。比如姨伟,存儲(chǔ)優(yōu)先的部署往往使用更慢更便宜的SATA盤并在同一位置設(shè)置journal分區(qū),而不是使用SSD寫journal日志豆励。
1.2 考慮存儲(chǔ)密度
硬件規(guī)劃中應(yīng)該包含Ceph daemons(CEPH 例程)的部署夺荒,和很多其他為了保證硬件錯(cuò)誤事件時(shí)CEPH系統(tǒng)高可用的主機(jī)。應(yīng)該基于集群在硬件錯(cuò)誤時(shí)發(fā)生重平衡的需求權(quán)衡存儲(chǔ)密度良蒸。常犯的錯(cuò)誤是在小集群上使用高密度集群技扼,這可能會(huì)在集群執(zhí)行backfill(回填)和recovery(恢復(fù))操作時(shí)導(dǎo)致網(wǎng)絡(luò)過載。
1.3 使用統(tǒng)一的硬件
創(chuàng)建pools并定義CRUSH層級(jí)結(jié)構(gòu)嫩痰,讓同一個(gè)pool下的OSD硬件保持統(tǒng)一剿吻,這個(gè)統(tǒng)一包含:
同樣的控制器
同樣的驅(qū)動(dòng)型號(hào)
同樣的軟件源
同樣的尋道時(shí)間
同樣的I/O效率
同樣的網(wǎng)絡(luò)吞吐
同樣的日志配置
在pool內(nèi)部使用同樣的硬件可以提供一致的性能特性,簡(jiǎn)化配置和幫助問題定位串纺。
1.4 生產(chǎn)環(huán)境至少使用萬(wàn)兆網(wǎng)
謹(jǐn)慎考慮集群網(wǎng)絡(luò)帶寬需求丽旅,注意網(wǎng)絡(luò)連接過載,內(nèi)部網(wǎng)絡(luò)和用戶網(wǎng)絡(luò)分離纺棺。
1Gbps帶寬不適用于生產(chǎn)集群
一旦發(fā)生設(shè)備磁盤異常榄笙,在1Gbps帶寬條件下,恢復(fù)1TB數(shù)據(jù)需要3小時(shí)祷蝌,恢復(fù)3TB數(shù)據(jù)需要9小時(shí)茅撞;對(duì)比10Gbps帶寬條件下,分別只需要20分鐘和1小時(shí)巨朦。當(dāng)一個(gè)OSD不可用時(shí)米丘,集群將復(fù)制該OSD上的數(shù)據(jù)到該pool內(nèi)其他OSD上,來(lái)恢復(fù)該OSD的數(shù)據(jù)糊啡。而一個(gè)大的故障域(比如一個(gè)機(jī)架)的異常意味著集群需要大得多的帶寬拄查。管理員通常希望集群盡可能快的恢復(fù)。
至少為存儲(chǔ)硬件準(zhǔn)備一個(gè)10Gbps以太網(wǎng)鏈路棚蓄,如果每個(gè)節(jié)點(diǎn)上帶有多個(gè)磁盤設(shè)備靶累,需要為連接和吞吐開銷增加額外的10Gbps以太網(wǎng)鏈路腺毫。
將前端和后端網(wǎng)絡(luò)設(shè)置在獨(dú)立的網(wǎng)卡上
Ceph同時(shí)支持前端網(wǎng)絡(luò)(public network)和后端網(wǎng)絡(luò)(cluster network)癣疟。public network負(fù)責(zé)客戶端交互挣柬,以及和Ceph Monitor通信。cluster network負(fù)責(zé)OSD心跳睛挚,拷貝邪蛔,回填和恢復(fù)的交互.Red Hat建議根據(jù)你的pool副本數(shù) osd_pool_default_size 來(lái)分配網(wǎng)絡(luò)帶寬使得后端帶寬是前端帶寬的副本數(shù)倍;最好是扎狱,讓public network和cluster network在獨(dú)立的網(wǎng)卡上進(jìn)行通信侧到。
當(dāng)構(gòu)建一個(gè)包含多機(jī)架的集群時(shí),拓?fù)錁涞亩葦?shù)往往很胖淤击,建議交換機(jī)之間使用盡可能大的網(wǎng)絡(luò)帶寬以獲得更好的性能匠抗。一個(gè)典型的10Gbps 鏈路交換機(jī)有48個(gè)10Gbps 端口和4個(gè)40Gbps 端口。在最大吞吐的主干網(wǎng)上使用40Gbps 的端口污抬」常或者通過QSFP+和SFP+將不用的10Gbps端口聚集成40Gbps端口連到另外一個(gè)機(jī)架和主干路上。
為了優(yōu)化網(wǎng)絡(luò)印机,RedHat建議使用CPU帶寬比更好的大型框架矢腻,以及非阻塞網(wǎng)絡(luò)交換機(jī)背板。
1.5 避免使用RAID
Ceph本身可以備份或者通過糾刪編碼對(duì)象射赛。RAID在塊級(jí)重復(fù)了這個(gè)功能多柑,并且減少了可用空間。結(jié)論是RAID是一種沒有必要的浪費(fèi)楣责。另外一個(gè)降級(jí)的RAID對(duì)性能產(chǎn)生負(fù)面作用竣灌。
1.6 總結(jié)
在選擇硬件設(shè)備時(shí)經(jīng)常犯的錯(cuò)誤是:
重利用低功耗的傳統(tǒng)設(shè)備,作為Ceph設(shè)施秆麸。
在同一個(gè)pool中使用不一樣的硬件初嘹。
使用1Gbps網(wǎng)絡(luò)代替10Gbps或更高網(wǎng)絡(luò)。
忽視public network和cluster network網(wǎng)絡(luò)的設(shè)置蛔屹。
使用RAID代替JBOD
只考慮了價(jià)格成本而忽略了性能和吞吐需求削樊。
在需要使用SSD作為journal的場(chǎng)景下,使用OSD數(shù)據(jù)盤做journal
使用不滿足吞吐特性的磁盤控制器兔毒。
二 負(fù)載優(yōu)先性能域
使用Ceph存儲(chǔ)的一個(gè)重要益處是可以通過Ceph性能域在同一個(gè)集群中支持不同類型的負(fù)載需求漫贞。各種不同的硬件配置可以通過各自的性能域聯(lián)合起來(lái)。Ceph系統(tǒng)管理員可以在適合的性能域上部署存儲(chǔ)pool育叁,從而提供定制的性價(jià)比存儲(chǔ)迅脐。為這些性能域選擇合適型號(hào)規(guī)格的服務(wù),是Redhat Ceph存儲(chǔ)設(shè)計(jì)中一個(gè)很重要的方面豪嗽。
以下列出了Redhat 在優(yōu)化Ceph存儲(chǔ)集群時(shí)的服務(wù)器標(biāo)準(zhǔn)參考谴蔑。這些參考項(xiàng)可以作為硬件選擇和配置的基本指導(dǎo)豌骏,也可以進(jìn)行調(diào)整以滿足不同的負(fù)載環(huán)境。實(shí)際的硬件配置需要根據(jù)負(fù)載場(chǎng)景和廠商能力進(jìn)行綜合權(quán)衡隐锭。
2.1 IOPS優(yōu)先
一個(gè)IOPS優(yōu)先的存儲(chǔ)集群通常包含以下特性:
單位讀寫(IOPS)花費(fèi)成本最低窃躲。
單位GB的容量可以支持最高的讀寫性能(IOPS)。
99百分位的延遲一致性钦睡。
典型的應(yīng)用包括:
典型的塊存儲(chǔ)蒂窒。
3副本的機(jī)械硬盤。
2副本的固態(tài)硬盤使用荞怒。
openstack云上的mysql服務(wù)洒琢。
2.2 吞吐量?jī)?yōu)先
一個(gè)吞吐量?jī)?yōu)先的存儲(chǔ)集群通常包含以下特性:
單位吞吐(MBps)花費(fèi)成本最低。
單位容量(TB)可以獲得最高的MBps褐桌。
單位BTU可以獲得最高的吞吐量(MBps)衰抑。
單位功率可以獲得最高的吞吐量(MBps)。
97百分位的延遲一致性荧嵌。
典型的應(yīng)用包括:
塊存儲(chǔ)或者對(duì)象存儲(chǔ)呛踊。
3副本。
針對(duì)視頻完丽、音頻和圖片的活躍存儲(chǔ)恋技。
流媒體。
2.3 容量?jī)?yōu)先
一個(gè)成本和容量?jī)?yōu)先的存儲(chǔ)集群通常包含以下特性:
單位容量(TB)花費(fèi)成本最低逻族。
單位容量(TB)的BTU最低蜻底。
單位容量(TB)的功耗最低。
典型的應(yīng)用包括:
典型的對(duì)象存儲(chǔ)聘鳞。
使用糾刪碼以達(dá)到最大可用容量薄辅。
檔案文件。
視頻抠璃、音頻以及圖像倉(cāng)庫(kù)站楚。
2.4 性能域原理
對(duì)向Ceph讀寫數(shù)據(jù)的客戶端接口來(lái)說,一個(gè)Ceph集群表現(xiàn)為一個(gè)簡(jiǎn)單的存放數(shù)據(jù)的池子搏嗡。然而存儲(chǔ)集群在其實(shí)有很多復(fù)雜的操作窿春,這些操作對(duì)客戶端接口來(lái)說是透明的。Ceph客戶端和Ceph對(duì)象存儲(chǔ)例程都使用CRUSH算法進(jìn)行存取對(duì)象采盒。OSD服務(wù)在集群內(nèi)部的存儲(chǔ)主機(jī)上運(yùn)行旧乞。
一個(gè)CRUSH映射表,描述了集群資源的拓?fù)浣Y(jié)構(gòu)磅氨,這個(gè)映射表同時(shí)保存在客戶端節(jié)點(diǎn)和集群的MON節(jié)點(diǎn)上尺栖。Ceph客戶端和OSD都使用CRUSH映射表和CRUSH算法。Ceph客戶端直接和OSD進(jìn)行交互烦租,避免了中心化的對(duì)象查詢和潛在的性能瓶頸延赌。通過監(jiān)控CRUSH映射表以及和其他OSD進(jìn)行通信除盏,OSD自身可以進(jìn)行備份、回填以及恢復(fù)操作--從而實(shí)現(xiàn)動(dòng)態(tài)的失敗恢復(fù)挫以。
Ceph使用CRUSH映射表實(shí)現(xiàn)故障域管理者蠕。Ceph同樣使用CRUSH映射表實(shí)現(xiàn)性能域管理,只要考慮底層硬件特性即可屡贺。CRUSH映射表向Ceph描述了怎樣存儲(chǔ)數(shù)據(jù)蠢棱,它被實(shí)現(xiàn)成一個(gè)層級(jí)結(jié)構(gòu)以及一個(gè)規(guī)則集。CRUSH映射表可以支持不同的層級(jí)結(jié)構(gòu)從而區(qū)分不同類型的硬件性能特性甩栈。在RHCS2以及之前的版本中,性能域存儲(chǔ)在獨(dú)立的CRUSH層級(jí)結(jié)構(gòu)中糕再,在RHCS 3中量没,Ceph通過設(shè)備“classes”來(lái)實(shí)現(xiàn)性能域管理。
描述性能域的例子:
HDD盤適合低成本大容量的負(fù)載場(chǎng)景突想。
吞吐量敏感的負(fù)載場(chǎng)景通常同時(shí)使用HDD和SSD殴蹄,并將日志寫在SSD盤上。
像Mysql數(shù)據(jù)這樣的的IOPS敏感的負(fù)載場(chǎng)景通常使用SSD盤猾担。
所有這些性能域都可以在一個(gè)Ceph集群中共存袭灯。
三 服務(wù)器和機(jī)架級(jí)解決方案
硬件供應(yīng)商對(duì)為Ceph提供包括服務(wù)器級(jí)和機(jī)架級(jí)優(yōu)化方案表現(xiàn)出極大的熱情。通過和Redhat進(jìn)行聯(lián)合測(cè)試绑嘹,這些方案為Ceph部署提供了可預(yù)測(cè)的性價(jià)比稽荧,這些方案可以通過一個(gè)方便的模塊化方法來(lái)為不同的負(fù)載場(chǎng)景擴(kuò)展Ceph集群。典型的機(jī)架級(jí)方案包括:
網(wǎng)絡(luò)交換:冗余的網(wǎng)絡(luò)交換連接集群并且提供客戶端訪問工腋。
Ceph監(jiān)控節(jié)點(diǎn):Ceph監(jiān)控器存儲(chǔ)整個(gè)集群健康數(shù)據(jù)姨丈,并且包含了整個(gè)集群的日志。在生產(chǎn)集群中推薦包含最少法定數(shù)量3監(jiān)控節(jié)點(diǎn)擅腰。
Ceph OSD主機(jī):Ceph對(duì)象存儲(chǔ)設(shè)備(OSD)主機(jī)為集群提供存儲(chǔ)容量蟋恬,每個(gè)獨(dú)立存儲(chǔ)設(shè)備上運(yùn)行一個(gè)或者多個(gè)OSD服務(wù)。OSD主機(jī)根據(jù)負(fù)載優(yōu)化場(chǎng)景以及安裝的數(shù)據(jù)設(shè)備(HDD趁冈、SSD歼争、NVMe SSD)會(huì)有不同的選擇和配置。
Redhat Ceph存儲(chǔ):很多供應(yīng)商為綁定了服務(wù)器和機(jī)架級(jí)方案的Redhat Ceph存儲(chǔ)提供基于容量的訂購(gòu)渗勘。
3.1 IOPS優(yōu)先方案
隨著閃存應(yīng)用的增長(zhǎng)沐绒,用戶開始逐漸在Ceph集群上托管這些的IOPS敏感負(fù)載場(chǎng)景,從而讓他們可以用私有云存儲(chǔ)模擬高性能的公有云存儲(chǔ)呀邢。這些負(fù)載場(chǎng)景通常包括基于MySQL洒沦、MariaDB、PostgreSQL的應(yīng)用產(chǎn)生的結(jié)構(gòu)化數(shù)據(jù)价淌。運(yùn)行在同一臺(tái)主機(jī)的NVMe 固態(tài)存儲(chǔ)上的Ceph寫日志通常托管到OSD申眼。典型的服務(wù)器組成如下:
CPU:對(duì)于主頻2GHz的CPU瞒津,每塊NVMe SSD配置10核。
RAM:16GB的基線內(nèi)存括尸,另外巷蚪,每個(gè)OSD服務(wù)需要2GB內(nèi)存。
網(wǎng)絡(luò):每12個(gè)OSD需要配置10Gb帶寬
OSD 媒介:高性能濒翻、高忍耐的商用NVMe SSD屁柏。
OSD:每個(gè)NVMe SSD可以配置4個(gè)OSD。
Journal 媒介:和OSD同一位置的高性能有送、高忍耐的商用NVMe SSD淌喻。
Controller:本地PCIe總線
案例:
廠商 | 小集群(256TB) | 中型集群(1PB) | 大集群(2PB以上) |
---|---|---|---|
SuperMicro | SYS-5038MR-OSD006P | N/A | N/A |
3.2 吞吐量?jī)?yōu)先方案
吞吐量?jī)?yōu)先的Ceph存儲(chǔ)方案通常用于半結(jié)構(gòu)化或者非結(jié)構(gòu)化數(shù)據(jù)的存儲(chǔ)。大塊連續(xù)I/O是經(jīng)典場(chǎng)景雀摘。OSD主機(jī)上的存儲(chǔ)介質(zhì)通常包含HDD盤和用于寫日志的SSD盤裸删。典型的服務(wù)器組成如下:
CPU:對(duì)于主頻2GHz的CPU,每塊HDD盤配置0.5核阵赠。
RAM:16GB的基線內(nèi)存涯塔,另外,每個(gè)OSD服務(wù)需要2GB內(nèi)存清蚀。
網(wǎng)絡(luò):每12個(gè)OSD需要配置10Gb帶寬
OSD 媒介:7200轉(zhuǎn)商用硬盤匕荸。
OSD:每個(gè)HDD盤一個(gè)OSD。
Journal 媒介:高忍耐枷邪、高性能的商用SCSI 或NVMe固態(tài)硬盤榛搔。
OSD比Journal:普通SSD盤,4-5:1齿风;NVMe盤药薯,12-18:1。
主機(jī)總線適配器(HBA):JBOD(硬盤直通)
案例:
廠商 | 小集群(256TB) | 中型集群(1PB) | 大集群(2PB以上) |
---|---|---|---|
SuperMicro | SRS-42E112-Ceph-03 | SRS-42E136-Ceph-03 | SRS-42E136-Ceph-03 |
3.3 容量?jī)?yōu)先方案
成本和容量方案通常關(guān)注更高的容量或者更長(zhǎng)的存檔方案救斑。數(shù)據(jù)可能是半結(jié)構(gòu)化或者非結(jié)構(gòu)化的童本。負(fù)載場(chǎng)景包括媒體存檔,大數(shù)據(jù)分析存檔脸候,機(jī)器鏡像備份穷娱。常見于大塊連續(xù)I/O。為了更好的利用成本运沦,OSD通常托管在HDD盤上泵额,Journal寫到同一位置的HHD上。典型的服務(wù)器組成如下:
CPU:對(duì)于主頻2GHz的CPU携添,每塊HDD盤配置0.5核嫁盲。
RAM:16GB的基線內(nèi)存,另外烈掠,每個(gè)OSD服務(wù)需要2GB內(nèi)存羞秤。
網(wǎng)絡(luò):每12個(gè)OSD需要配置10Gb帶寬
OSD 媒介:7200轉(zhuǎn)商用硬盤缸托。
OSD:每個(gè)HDD盤一個(gè)OSD。
Journal 媒介:同一位置的HDD盤瘾蛋。
主機(jī)總線適配器(HBA):JBOD(硬盤直通)
案例:
廠商 | 小集群(256TB) | 中型集群(1PB) | 大集群(2PB以上) |
---|---|---|---|
SuperMicro | N/A | SRS-42E136-Ceph-03 | SRS-42E172-Ceph-03 |
3.4 總結(jié)
組成 | IOPS優(yōu)先方案 | 吞吐量?jī)?yōu)先方案 | 容量?jī)?yōu)先方案 |
---|---|---|---|
CPU | 20GHz/NVMe SSD | 1GHz/HHD | 1GHz/HHD |
RAM | 16GB+2GB/OSD | 16GB+2GB/OSD | 16GB+2GB/OSD |
網(wǎng)絡(luò) | 10Gb/12OSDs | 10Gb/12OSDs | 10Gb/12OSDs |
OSD媒介 | 商用NVMe SSD | 7200轉(zhuǎn)商用硬盤 | 7200轉(zhuǎn)商用硬盤 |
OSD | 4*OSD/NVMe SSD | 1*OSD/HDD | 1*OSD/HDD |
Journal 媒介 | NVMe SSD | SCSI/NVMe SSD | 同一位置的HDD盤 |
控制 | PCIe總線 | HBA直通卡 | HBA直通卡 |
四 最小硬件推薦
Ceph可以運(yùn)行在非專用的商用硬件上俐镐。小的生產(chǎn)集群和開發(fā)集群可以不考慮優(yōu)化性能而在最簡(jiǎn)單的硬件上運(yùn)行。
服務(wù)例程 | 指標(biāo) | 最小配置推薦 | |
---|---|---|---|
ceph-osd | 處理器(Processor) | 1*AMD | Intel64位處理器 |
內(nèi)存(RAM) | FileSore:16GB+2GB/OSD哺哼;BlueSore:16GB+5GB/OSD | ||
系統(tǒng)盤(OS-disk) | 1*OS disk/host | ||
卷存儲(chǔ)(Volume Storage) | 1*driver/daemon | ||
日志盤(Journal) | 1*SSD/daemon(可選) | ||
網(wǎng)絡(luò) | 2*1GB鏈路網(wǎng)卡 | ||
ceph-mon | 處理器(Processor) | 1*AMD | Intel64位處理器 |
內(nèi)存(RAM) | 1GB/daemon | ||
磁盤空間(Disk Space) | 10GB/daemon | ||
監(jiān)控盤(Monitor Disk) | 1*SSD(可選佩抹,給leveldb用) | ||
網(wǎng)絡(luò) | 2*1GB鏈路網(wǎng)卡 | ||
ceph-radosgw | 處理器(Processor) | 1*AMD | Intel64位處理器 |
內(nèi)存(RAM) | 1GB/daemon | ||
磁盤空間(Disk Space) | 5GB/daemon | ||
網(wǎng)絡(luò) | 1*1GB鏈路網(wǎng)卡 | ||
ceph-mds | 處理器(Processor) | 1*AMD | Intel64位處理器 |
內(nèi)存(RAM) | 2*mds_cache_memory_limit 通常2GB/daemon | ||
磁盤空間(Disk Space) | 2GB/daemon + 不同日志級(jí)別的存儲(chǔ)空間 | ||
網(wǎng)絡(luò) | 2*1GB鏈路網(wǎng)卡 | ||
ceph-rbd |
五 容器化部署最小硬件推薦
Ceph可以運(yùn)行在非專用的商用硬件上。小的生產(chǎn)集群和開發(fā)集群可以不考慮優(yōu)化性能而在最簡(jiǎn)單的硬件上運(yùn)行取董。
服務(wù)例程 | 指標(biāo) | 最小配置推薦 | |
---|---|---|---|
ceph-osd-container | 處理器(Processor) | 1*AMD | Intel64位處理核/container |
內(nèi)存(RAM) | 至少5GB/container | ||
系統(tǒng)盤(OS-disk) | 1*OS disk/host | ||
卷存儲(chǔ)(Volume Storage) | 1*driver/container | ||
日志盤(Journal) | 1*SSD/daemon 或 專用NVME盤的一個(gè)分區(qū) | ||
網(wǎng)絡(luò) | 2*1GB鏈路網(wǎng)卡 | ||
ceph-mon-container | 處理器(Processor) | 1*AMD | Intel64位處理核/container |
內(nèi)存(RAM) | 3GB/container | ||
磁盤空間(Disk Space) | 10GB/container | ||
監(jiān)控盤(Monitor Disk) | 1*SSD(可選棍苹,給rocksdb用) | ||
網(wǎng)絡(luò) | 2*1GB鏈路網(wǎng)卡 | ||
ceph-mgr-container | 處理器(Processor) | 1*AMD | Intel64位處理核/container |
內(nèi)存(RAM) | 3GB/container | ||
網(wǎng)絡(luò) | 2*1GB鏈路網(wǎng)卡 | ||
ceph-radosgw-container | 處理器(Processor) | 1*AMD | Intel64位處理核/container |
內(nèi)存(RAM) | 1GB/daemon | ||
磁盤空間(Disk Space) | 5GB/daemon | ||
網(wǎng)絡(luò) | 1*1GB鏈路網(wǎng)卡 | ||
ceph-mds-container | 處理器(Processor) | 1*AMD | Intel64位處理核/container |
內(nèi)存(RAM) | 2*mds_cache_memory_limit 通常3GB/container | ||
磁盤空間(Disk Space) | 2GB/container + 不同日志級(jí)別的存儲(chǔ)空間 | ||
網(wǎng)絡(luò) | 2*1GB鏈路網(wǎng)卡 | ||
ceph-rbd-container |
六 總結(jié)
軟件定義存儲(chǔ)(SDS)在橫向擴(kuò)展方面表現(xiàn)出很多優(yōu)勢(shì),滿足了應(yīng)用持續(xù)增大的存儲(chǔ)需求甲葬。Red Hat和多家供應(yīng)商合作廊勃,做了科學(xué)有效的測(cè)試,以求簡(jiǎn)化任何環(huán)境下選擇硬件的過程经窖。。梭灿。運(yùn)行Redhat Ceph服務(wù)器的詳細(xì)配置請(qǐng)參考最佳實(shí)踐文檔