Cluster 集群
一個 Elasticsearch 集群由一個或多個節(jié)點(Node)組成械拍,每個集群都有一個共同的集群名稱作為標識粤策。
Node 節(jié)點
一個 Elasticsearch 實例即一個 Node志衣,一臺機器可以有多個實例车摄,正常使用下每個實例應該會部署在不同的機器上。Elasticsearch 的配置文件中可以通過 node.master报咳、node.data 來設置節(jié)點類型椎咧。
node.master:表示節(jié)點是否具有成為主節(jié)點的資格
node.data:表示節(jié)點是否存儲數(shù)據(jù)
注意:此屬性的值為true玖详,并不意味著這個節(jié)點就是主節(jié)點。
因為真正的主節(jié)點勤讽,是由多個具有主節(jié)點資格的節(jié)點進行選舉產(chǎn)生的蟋座。
所以,這個屬性只是代表這個節(jié)點是不是具有主節(jié)點選舉資格脚牍。
主節(jié)點+數(shù)據(jù)節(jié)點(默認)
node.master: true
node.data: true
節(jié)點即有成為主節(jié)點的資格蜈七,又存儲數(shù)據(jù)。這個時候如果某個節(jié)點被選舉成為了真正的主節(jié)點莫矗,那么他還要存儲數(shù)據(jù)飒硅,這樣對于這個節(jié)點的壓力就比較大了。Elasticsearch 默認每個節(jié)點都是這樣的配置作谚,在測試環(huán)境下這樣做沒問題三娩。實際工作中建議不要這樣設置,這樣相當于主節(jié)點和數(shù)據(jù)節(jié)點的角色混合到一塊了妹懒。
數(shù)據(jù)節(jié)點
node.master: false
node.data: true
節(jié)點沒有成為主節(jié)點的資格雀监,不參與選舉,只會存儲數(shù)據(jù)。在集群中需要單獨設置幾個這樣的節(jié)點負責存儲數(shù)據(jù)会前,后期提供存儲和查詢服務好乐。主要消耗磁盤,內(nèi)存瓦宜。
主節(jié)點
node.master: true
node.data: false
不會存儲數(shù)據(jù)蔚万,有成為主節(jié)點的資格,可以參與選舉临庇,有可能成為真正的主節(jié)點反璃。普通服務器即可(CPU、內(nèi)存消耗一般)假夺。
客戶端節(jié)點
node.master: false
node.data: false
不會成為主節(jié)點淮蜈,也不會存儲數(shù)據(jù),主要是針對海量請求的時候可以進行負載均衡已卷。普通服務器即可(如果要進行分組聚合操作的話梧田,建議這個節(jié)點內(nèi)存也分配多一點)
在生產(chǎn)環(huán)境下,如果不修改 Elasticsearch 節(jié)點的角色信息侧蘸,在高數(shù)據(jù)量裁眯,高并發(fā)的場景下集群容易出現(xiàn)腦裂等問題。
Index 索引
一個集群下可以有多個索引闺魏,每個索引是一系列相同格式文檔的集合(Elasticsearch 6.x 已不支持一個索引下多個Type)。
Shard 分片
每個索引有一個或多個分片俯画,每個分片存儲不同的數(shù)據(jù)析桥。分片可分為主分片( primary shard)和復制分片(replica shard),復制分片是主分片的拷貝艰垂。默認每個主分片有一個復制分片(默認一個索引創(chuàng)建后會有5個主分片泡仗,即:5主+5復制=10個分片),一個索引的復制分片的數(shù)量可以動態(tài)地調(diào)整猜憎,復制分片從不與它的主分片在同一個節(jié)點上(防止單點故障)娩怎。
復制分片有兩個作用:
- 提高恢復能力:當主分片掛掉時,某個復制分片可以變成主分片胰柑;
- 提高性能:get 和 search 請求既可以由主分片又可以由復制分片處理截亦;
集群健康值
- green:所有主要分片和復制分片都可用
- yellow:所有主要分片可用,但不是所有復制分片都可用
- red:不是所有的主要分片都可用
當集群狀態(tài)為 red柬讨,它仍然正常提供服務崩瓤,它會在現(xiàn)有存活分片中執(zhí)行請求,我們需要盡快修復故障分片踩官,防止查詢數(shù)據(jù)的丟失却桶;
Windows 環(huán)境搭建集群(3個Node,全部是主節(jié)點+數(shù)據(jù)節(jié)點)
下載安裝包
解壓后復制3份(每份啟動一個實例)
編輯每個文件下的 config/elasticsearch.yml
根據(jù)以下說明調(diào)整 elasticsearch.yml 對應參數(shù)配置,node2颖系、node3 其他配置與node1一致。
node1
# 集群名稱嘁扼,默認是 elasticsearch
cluster.name: es
# 節(jié)點名稱
node.name: node1
# 是否作為集群的主節(jié)點 ,默認 true
node.master: true
# 是否作為集群的數(shù)據(jù)節(jié)點 偷拔,默認 true
node.data: true
# 數(shù)據(jù)存儲位置,默認是 es 根目錄下的 data 文件夾
path.data: E:\elasticsearch\node1\data
# 日志存儲位置莲绰,默認是 es 根目錄下的 logs 文件夾
path.logs: E:\elasticsearch\node1\logs
# 配置訪問本節(jié)點的地址
network.host: 0.0.0.0
# 設置對外服務的http端口,默認為9200
http.port: 9200
# 設置節(jié)點間交互的tcp端口,默認是9300
transport.tcp.port: 9300
# 配置所有用來組建集群的機器的IP地址
discovery.zen.ping.unicast.hosts: ["127.0.0.1:9300", "127.0.0.1:9301","127.0.0.1:9302"]
# 配置當前集群中最少具有 master 資格節(jié)點數(shù)蛤签,對于多于兩個節(jié)點的集群環(huán)境,建議配置大于1
discovery.zen.minimum_master_nodes: 2
node2
path.data: E:\elasticsearch\node2\data
path.logs: E:\elasticsearch\node2\logs
http.port: 9201
transport.tcp.port: 9301
node3
path.data: E:\elasticsearch\node3\data
path.logs: E:\elasticsearch\node3\logs
http.port: 9202
transport.tcp.port: 9302
到目前位置震肮,集群的配置就完成了,下面我們分別啟動每個實例戳晌。
根據(jù)配置文件中的注釋:
Prevent the "split brain" by configuring the majority of nodes (total number of master-eligible nodes / 2 + 1)
所以我們配置了 discovery.zen.minimum_master_nodes: 2 ,所以必須有兩個主節(jié)點啟動成功沦偎,集群才算生效。
測試
進入目錄 elasticsearch-6.2.1-1 啟動第一個節(jié)點豪嚎,執(zhí)行命令:bin\elasticsearch.bat。從日志中可以看出并沒有成功侈询,因為沒發(fā)現(xiàn)足夠的master節(jié)點舌涨。
當?shù)诙€master節(jié)點啟動成功時,整個集群狀態(tài)變?yōu)檎扔字!?/p>
3個節(jié)點全部啟動成功囊嘉,通過 elasticsearch-head 插件查看集群狀態(tài),通過集群健康值:green革为,表示集群一切正常哗伯。目前集群內(nèi)沒有任何數(shù)據(jù),所以看不出索引與分片的情況篷角。
Elasticsearch 一般會配合 Kibana + X-Pack 對集群數(shù)據(jù)分析焊刹、監(jiān)控等,官方標配。這里使用了 elasticsearch-head 插件虐块,一個比較小巧的工具俩滥。插件的安裝方法請看:elasticsearch-head 安裝介紹
添加測試數(shù)據(jù):
從截圖可以看出,目前一共3個節(jié)點贺奠,一個索引 test霜旧,test 索引有5個主分片(邊框加粗),5個復制分片(邊框不加粗)儡率,分片會別均勻的分布到每個節(jié)點中挂据。
我們嘗試干掉node3,node3 從集群退出之后儿普,集群在短時間內(nèi)會對分片進行重新分布崎逃,當然依賴遵循主、復制分片不會在同一個Node眉孩。
如果我們繼續(xù)把node2干掉个绍,那么整個集群就掛了,集群健康值:未連接浪汪。因為當前可用的主節(jié)點數(shù) 1 < discovery.zen.minimum_master_nodes 設置的 2巴柿。
我們嘗試把 discovery.zen.minimum_master_nodes 設置成 1,然后重啟啟動一個節(jié)點死遭,會發(fā)現(xiàn)有一個 Unassigned 的節(jié)點广恢,集群健康值:yellow (5 of 10)。這種情況下代表主分片全部可用呀潭,存在不可用的復制分片钉迷,5個復制分片沒有分配到節(jié)點上,不過此時的集群是可用的蜗侈,我們?nèi)魏握埱蠖寄芴幚砼衽疲皇撬械牟僮鞫悸涞街鞣制纤铱赡芤l(fā)單點故障。當我們把第二個節(jié)點啟動后该面,一切就恢復正常了隔缀,主分片的數(shù)據(jù)會同步到復制分片傍菇。
實際生產(chǎn)環(huán)境,每個節(jié)點可能設置不同的節(jié)點類型淮悼,我們在3個節(jié)點的基礎上再增加兩個節(jié)點袜腥,然后調(diào)整 node.master 和node.data 的值羹令,最終設置為2個主節(jié)點损痰,2個數(shù)據(jù)節(jié)點,1個客戶端節(jié)點癌刽。
node1 和 node2 是具有主節(jié)點選舉權限的節(jié)點显拜,這里 node1 被選舉為master節(jié)點远荠。node3 和 node4 是數(shù)據(jù)節(jié)點失息,所以數(shù)據(jù)分片只會分配在這兩個節(jié)點上盹兢。node5 是客戶端節(jié)點,最終是對請求起到負載均衡的作用浦妄。
如果是Linux環(huán)境下剂娄,啟動可能沒有這么順利玄呛,可以參考 Linux 環(huán)境下安裝 elasticsearch 5.x、6.x 問題匯總 耳胎。