本文是基于ES5.6.3和Docker的集群部署、配置說明伙单,如有錯誤或更好的建議請指正
節(jié)點類型
Master節(jié)點 (主節(jié)點)
node.master: true
node.data: false
這樣配置的節(jié)點為master節(jié)點瓣履。主節(jié)點的主要職責是和集群操作相關的內容檐薯,如創(chuàng)建或刪除索引衰絮,跟蹤哪些節(jié)點是群集的一部分袍冷,并決定哪些分片分配給相關的節(jié)點。穩(wěn)定的主節(jié)點對集群的健康是非常重要的猫牡。
為了防止數據丟失胡诗,配置discovery.zen.minimum_master_nodes設置是至關重要的
(默認為1),每個主節(jié)點應該知道形成一個集群的最小數量的主資格節(jié)點的數量淌友。
解釋如下:
? 假設我們有一個集群煌恢。有3個主資格節(jié)點,當網絡發(fā)生故障的時候震庭,有可能其中一個節(jié)點不能和其他節(jié)點進行通信了瑰抵。這個時候,當discovery.zen.minimum_master_nodes設置為1的時候归薛,就會分成兩個小的獨立集群谍憔,當網絡好的時候,就會出現(xiàn)數據錯誤或者丟失數據的情況主籍。當discovery.zen.minimum_master_nodes設置為2的時候习贫,一個網絡中有兩個主資格節(jié)點,可以繼續(xù)工作千元,另一部分苫昌,由于只有一個主資格節(jié)點,則不會形成一個獨立的集群幸海,這個時候當網絡回復的時候祟身,節(jié)點又會從新加入集群。
設置這個值的原則是:
(master_eligible_nodes / 2)+ 1
Data節(jié)點(數據節(jié)點)
node.master: false
node.data: true
數據節(jié)點主要是存儲索引數據的節(jié)點物独,主要對文檔進行增刪改查操作袜硫,聚合操作等。數據節(jié)點對cpu挡篓,內存婉陷,io要求較高,在優(yōu)化的時候需要監(jiān)控數據節(jié)點的狀態(tài)官研,當資源不夠的時候秽澳,需要在集群中添加新的節(jié)點。
Client節(jié)點 (客戶端節(jié)點)
當主節(jié)點和數據節(jié)點配置都設置為false的時候戏羽,該節(jié)點只能處理路由請求担神,處理搜索,分發(fā)索引操作等始花,從本質上來說該客戶節(jié)點表現(xiàn)為智能負載平衡器妄讯。獨立的客戶端節(jié)點在一個比較大的集群中是非常有用的孩锡,他協(xié)調主節(jié)點和數據節(jié)點,客戶端節(jié)點加入集群可以得到集群的狀態(tài)捞挥,根據集群的狀態(tài)可以直接路由請求浮创。
警告:添加太多的客戶端節(jié)點對集群是一種負擔忧吟,因為主節(jié)點必須等待每一個節(jié)點集群狀態(tài)的更新確認砌函!客戶節(jié)點的作用不應被夸大,數據節(jié)點也可以起到類似的作用溜族。配置如下:
node.master: false
node.data: false
在配置ES集群的時候讹俊,要根據現(xiàn)場情況進行配置
下面舉例來進行集群配置。
準備工作
- Elasticsearch5.6.3鏡像
- 兩臺服務器
- 兩份elasticsearch.yml配置文件
操作
首先我這里有兩臺服務器煌抒,172.16.73.49 和 172.16.73.50
計劃把172.16.73.50作為master節(jié)點仍劈,172.16.73.49作為data節(jié)點。
1.準備配置文件
在用docker啟動master節(jié)點前寡壮,我們需要先寫好master節(jié)點的elasticsearch.yml文件贩疙。我準備好的配置文件內容如下:
cluster.name: "boss-es-cluster"
node.name: node-50
node.master: true
node.data: true
network.host: 0.0.0.0
network.publish_host: 172.16.73.50
discovery.zen.ping.unicast.hosts: ["172.16.73.49"]
discovery.zen.minimum_master_nodes: 1
解釋一下內容:
cluster.name: //集群名稱。如果想讓多個節(jié)點加入一個集群况既,那么需要使集群名稱一致这溅。
node.name: //節(jié)點名,為這個節(jié)點起一個獨一無二的名字
node.master: //該節(jié)點是否擔任master角色
node.data: //該節(jié)點是否可以擔任data節(jié)點的角色
network.host: //設置為0.0.0.0 棒仍,意思是任何IP都可以訪問
network.publish_host: //本節(jié)點在外部的IP
discovery.zen.minimum_master_nodes: //自動發(fā)現(xiàn)master節(jié)點的最小數悲靴,如果這個集群中配置進來的master節(jié)點少于這個數目,es的日志會一直報master節(jié)點數目不足莫其。
discovery.zen.ping.unicast.hosts: // 按照我的理解癞尚,這里配置的host ip才是可以ping通的,因此在這里加上49的ip乱陡。因為本文是只有兩個節(jié)點的es集群浇揩,所以只寫對方的ip即可。如果是大于2個以上的節(jié)點的es集群憨颠,那么我想應該是在這里寫上所有集群的ip
在這個配置中胳徽,注意到這個節(jié)點既是主節(jié)點又是數據節(jié)點,實際上對這個節(jié)點的壓力是挺大的烙心,在資源比較充裕的條件下不建議這樣做膜廊。
對比一下 49 這個data節(jié)點的配置文件:
cluster.name: "boss-es-cluster"
node.name: node-49
node.master: false
node.data: true
network.host: 0.0.0.0
network.publish_host: 172.16.73.49
discovery.zen.ping.unicast.hosts: ["172.16.73.50"]
2.準備目錄
在172.16.73.49和172.16.73.50上,都準備如下目錄結構:
- /var/espn/config
- /var/espn/data
config是掛載elasticsearch.yml的目錄
data是掛載數據的目錄
3.啟動master節(jié)點
在172.16.73.50上 淫茵,執(zhí)行:
docker run -d --name=espn-50 -p 9200:9200 -p 9300:9300 -v /var/espn/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /var/espn/data:/usr/share/elasticsearch/data elasticsearch:5.6.3
將master節(jié)點容器命名為espn-50,開放9200 和 9300端口爪瓜,并掛載config目錄下的elasticsearch.yml和data目錄
4.啟動data節(jié)點
在172.16.73.49上 ,執(zhí)行:
docker run -d --name=espn-49 -p 9200:9200 -p 9300:9300 -v /var/espn/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /var/espn/data:/usr/share/elasticsearch/data elasticsearch:5.6.3
至此為止匙瘪,如果docker啟動無誤铆铆,我們就可以來看一下各個es節(jié)點狀態(tài)和集群狀態(tài)了蝶缀。
5.確認集群
在172.16.73.50上:
$ curl 'localhost:9200'
response:
{
"name" : "node-50",
"cluster_name" : "boss-es-cluster",
"cluster_uuid" : "kNr1ejDGQ2GZCN3UYc_WGA",
"version" : {
"number" : "5.6.3",
"build_hash" : "1a2f265",
"build_date" : "2017-10-06T20:33:39.012Z",
"build_snapshot" : false,
"lucene_version" : "6.6.1"
},
"tagline" : "You Know, for Search"
}
節(jié)點啟動正常!
查看節(jié)點健康度:
$ curl 'localhost:9200/_cat/health?v=pretty'
epoch timestamp cluster status node.total node.data shards pri relo init unassign pending_tasks max_task_wait_time active_shards_percent
1515988034 03:47:14 boss-es-cluster green 2 2 0 0 0 0 0 0 - 100.0%
從結果可以看到薄货,集群健康為綠色翁都,有兩個數據節(jié)點在集群中。
查看集群狀況
$ curl 'localhost:9200/_cat/nodes?v=pretty'
ip heap.percent ram.percent cpu load_1m load_5m load_15m node.role master name
172.16.73.49 21 50 7 0.47 0.52 0.66 di - node-49
172.16.73.50 26 100 1 0.09 0.11 0.22 mdi * node-50
可以看見 谅猾,基本的節(jié)點情況已經很清楚的看到集群的情況了柄慰。