1. 從docker hub中拉取官方鏡像,如果要使用kibana,logstash,盡量將版本保持一致休里,避免出現(xiàn)問題
# 此處使用的elasticsearch版本為7.6.0,后續(xù)的kibana和logstash也會使用該版本
docker pull elasticsearch:7.6.0
2.為elasticsearch創(chuàng)建網(wǎng)絡(luò)
# 啟動鏡像的時候指定網(wǎng)段蛆挫,再該網(wǎng)段下的容器能夠通過容器名稱進行互通
docker network create elastic
3.啟動鏡像
docker run -d \
--name elasticsearch \
--network elastic \
-p 9200:9200 -p 9300:9300 \
-e "discovery.type=single-node" \
elasticsearch:7.6.0
4.驗證啟動狀態(tài),若出現(xiàn)如下的返回信息妙黍,則說明elasticsearch已經(jīng)部署ok
命令行驗證:curl 127.0.0.1
瀏覽器驗證:服務(wù)器地址:9200
5.下面列出elasticsearch.yml的配置詳情
#es的集群名稱悴侵,es會自動發(fā)現(xiàn)在同一網(wǎng)段下的es
#如果在同一網(wǎng)段下有多個集群,就可以用這個屬性來區(qū)分不同的集群废境。
cluster.name: elasticsearch
#節(jié)點名畜挨,默認(rèn)隨機指定一個name列表中名字
#該列表在es的jar包中config文件夾里name.txt文件中,其中有很多作者添加的有趣名字噩凹。
node.name: "Franz Kafka"
#指定該節(jié)點是否有資格被選舉成為node巴元,默認(rèn)是true
#es是默認(rèn)集群中的第一臺機器為master,如果這臺機掛了就會重新選舉master驮宴。
node.master: true
#指定該節(jié)點是否存儲索引數(shù)據(jù)逮刨,默認(rèn)為true。
node.data: true
#設(shè)置默認(rèn)索引分片個數(shù)堵泽,默認(rèn)為5片修己。
index.number_of_shards: 5
#設(shè)置默認(rèn)索引副本個數(shù),默認(rèn)為1個副本迎罗。
index.number_of_replicas: 1
#設(shè)置配置文件的存儲路徑睬愤,默認(rèn)是es根目錄下的config文件夾。
path.conf: /path/to/conf
#設(shè)置索引數(shù)據(jù)的存儲路徑纹安,默認(rèn)是es根目錄下的data文件夾
#可以設(shè)置多個存儲路徑尤辱,用逗號隔開,例:
path.data: /path/to/data
path.data: /path/to/data1,/path/to/data2
#設(shè)置臨時文件的存儲路徑厢岂,默認(rèn)是es根目錄下的work文件夾光督。
path.work: /path/to/work
#設(shè)置日志文件的存儲路徑,默認(rèn)是es根目錄下的logs文件夾
path.logs: /path/to/logs
#設(shè)置插件的存放路徑塔粒,默認(rèn)是es根目錄下的plugins文件夾
path.plugins: /path/to/plugins
#設(shè)置綁定的ip地址结借,可以是ipv4或ipv6的,默認(rèn)為0.0.0.0卒茬。
network.bind_host: 192.168.0.1
#設(shè)置其它節(jié)點和該節(jié)點交互的ip地址船老,如果不設(shè)置它會自動判斷
#值必須是個真實的ip地址咖熟。
network.publish_host: 192.168.0.1
#這個參數(shù)是用來同時設(shè)置bind_host和publish_host上面兩個參數(shù)
network.host: 192.168.0.1
#設(shè)置節(jié)點間交互的tcp端口,默認(rèn)是9300努隙。
transport.tcp.port: 9300
#設(shè)置是否壓縮tcp傳輸時的數(shù)據(jù)球恤,默認(rèn)為false,不壓縮荸镊。
transport.tcp.compress: true
#設(shè)置對外服務(wù)的http端口咽斧,默認(rèn)為9200。
http.port: 9200
#設(shè)置內(nèi)容的最大容量躬存,默認(rèn)100mb
http.max_content_length: 100mb
#是否使用http協(xié)議對外提供服務(wù)张惹,默認(rèn)為true,開啟岭洲。
http.enabled: false
#gateway的類型宛逗,默認(rèn)為local即為本地文件系統(tǒng),
#可以設(shè)置為本地文件系統(tǒng)盾剩,分布式文件系統(tǒng)雷激,hadoop的HDFS,和amazon的s3服務(wù)器
gateway.type: local
#設(shè)置集群中N個節(jié)點啟動時進行數(shù)據(jù)恢復(fù)告私,默認(rèn)為1屎暇。
gateway.recover_after_nodes: 1
#設(shè)置初始化數(shù)據(jù)恢復(fù)進程的超時時間,默認(rèn)是5分鐘驻粟。
gateway.recover_after_time: 5m
#設(shè)置這個集群中節(jié)點的數(shù)量根悼,默認(rèn)為2,一旦這N個節(jié)點啟動蜀撑,就會立即進行數(shù)據(jù)恢復(fù)挤巡。
gateway.expected_nodes: 2
#初始化數(shù)據(jù)恢復(fù)時,并發(fā)恢復(fù)線程的個數(shù)酷麦,默認(rèn)為4矿卑。
cluster.routing.allocation.node_initial_primaries_recoveries: 4
#添加刪除節(jié)點或負(fù)載均衡時并發(fā)恢復(fù)線程的個數(shù),默認(rèn)為4沃饶。
cluster.routing.allocation.node_concurrent_recoveries: 2
#設(shè)置數(shù)據(jù)恢復(fù)時限制的帶寬粪摘,如入100mb,默認(rèn)為0绍坝,即無限制。
indices.recovery.max_size_per_sec: 0
#設(shè)置這個參數(shù)來限制從其它分片恢復(fù)數(shù)據(jù)時最大同時打開并發(fā)流的個數(shù)苔悦,默認(rèn)為5轩褐。
indices.recovery.concurrent_streams: 5
#設(shè)置這個參數(shù)來保證集群中的節(jié)點可以知道其它N個有master資格的節(jié)點。
#默認(rèn)為1玖详,對于大的集群來說把介,可以設(shè)置大一點的值(2-4)
discovery.zen.minimum_master_nodes: 1
#設(shè)置集群中自動發(fā)現(xiàn)其它節(jié)點時ping連接超時時間
#默認(rèn)為3秒勤讽,對于比較差的網(wǎng)絡(luò)環(huán)境可以高點的值來防止自動發(fā)現(xiàn)時出錯。
discovery.zen.ping.timeout: 3s
#設(shè)置是否打開多播發(fā)現(xiàn)節(jié)點拗踢,默認(rèn)是true脚牍。
discovery.zen.ping.multicast.enabled: false
#設(shè)置集群中master節(jié)點的初始列表,可以通過這些節(jié)點來自動發(fā)現(xiàn)新加入集群的節(jié)點巢墅。
discovery.zen.ping.unicast.hosts: ["host1", "host2:port", "host3[portX-portY]"
轉(zhuǎn)載請說明出處诸狭!
下一篇:springboot + elk第二篇:docker部署kibana