ELK日志系統(tǒng)(ElasticSearch+Logstash+Kibana+kafka+Filebeat)

本文章僅作為個(gè)人筆記

elastic官網(wǎng)

kafka官網(wǎng)

zookeeper官網(wǎng)

ElasticSearch官方y(tǒng)um安裝文檔

Logstash官方y(tǒng)um安裝文檔

Kibana官方y(tǒng)um安裝文檔

Filebeat官方y(tǒng)um安裝文檔

kafka2.6.0安裝包官方下載地址

zookeeper3.6.2安裝包官方下載地址

zookeeper官方運(yùn)行文檔

先貼上各工具安裝教程哆料,可先安裝不啟動(dòng),配置后再啟動(dòng)湖员。

------------------安裝部分----------------------

  • 安裝java

    • yum install java-1.8.0-openjdk.x86_64 java-1.8.0-openjdk-devel.x86_64 -y
  • ElasticSearch安裝

    • rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch

    • vim /etc/yum.repos.d/elasticsearch.repo

      [elasticsearch]
      name=Elasticsearch repository for 7.x packages
      baseurl=https://artifacts.elastic.co/packages/7.x/yum
      gpgcheck=1
      gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
      enabled=0
      autorefresh=1
      type=rpm-md
      
    • yum install --enablerepo=elasticsearch elasticsearch -y

  • Logstash安裝

    • rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch

    • vim /etc/yum.repos.d/logstash.repo

      [logstash-7.x]
      name=Elastic repository for 7.x packages
      baseurl=https://artifacts.elastic.co/packages/7.x/yum
      gpgcheck=1
      gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
      enabled=1
      autorefresh=1
      type=rpm-md
      
    • yum install logstash -y

  • Kibana安裝

    • rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch

    • vim /etc/yum.repos.d/kibana.repo

      [kibana-7.x]
      name=Kibana repository for 7.x packages
      baseurl=https://artifacts.elastic.co/packages/7.x/yum
      gpgcheck=1
      gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
      enabled=1
      autorefresh=1
      type=rpm-md
      
    • yum install kibana -y

    • chkconfig --add kibana

    • service kibana start

  • Filebeat安裝

    • rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch

    • vim /etc/yum.repos.d/filebeat.repo

      [kibana-7.x]
      name=Kibana repository for 7.x packages
      baseurl=https://artifacts.elastic.co/packages/7.x/yum
      gpgcheck=1
      gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
      enabled=1
      autorefresh=1
      type=rpm-md
      
    • yum install filebeat -y

    • systemctl enable filebeat

    • chkconfig --add filebeat

  • kafka安裝

  • 配置ElasticSearch(默認(rèn)yum安裝的不更改配置亦可,看個(gè)人需求)

    • vim /etc/elasticsearch/elasticsearch.yml

      找到配置文件中的cluster.name维苔,打開該配置并設(shè)置集群名稱
      cluster.name: demon
      找到配置文件中的node.name舆乔,打開該配置并設(shè)置節(jié)點(diǎn)名稱
      node.name: elk-1
      解決啟動(dòng)報(bào)錯(cuò)
      cluster.initial_master_nodes: ["node-1"]
      配置內(nèi)存使用用交換分區(qū)
      bootstrap.memory_lock: true
      監(jiān)聽的網(wǎng)絡(luò)地址
      network.host: 0.0.0.0
      開啟監(jiān)聽的端口
      http.port: 9200
      增加新的參數(shù),這樣head插件可以訪問es (5.x版本或链,如果沒有可以自己手動(dòng)加)
      http.cors.enabled: true
      http.cors.allow-origin: "*"
      
    • 集群配置(非集群可略過)

      discovery.zen.ping.unicast.hosts: ["192.168.60.201", "192.168.60.202","192.168.60.203"]  
      # 集群各節(jié)點(diǎn)IP地址,也可以使用els鲸沮、els.demo.com等名稱琳骡,需要各節(jié)點(diǎn)能夠解析
      discovery.zen.minimum_master_nodes: 2              # 為了避免腦裂,集群節(jié)點(diǎn)數(shù)最少為 半數(shù)+1
      
    • 配置開啟自啟

    • chkconfig --add elasticsearch

    • service elasticsearch start

  • kibana配置

    • vi /etc/kibana/kibana.yml

      server.port: 5601
      server.host: “0.0.0.0”
      elasticsearch.hosts: [“http://localhost:9200”]
      kibana.index: “.kibana”
      
    • service kibana start

  • kafka配置(kafka依賴于zookeeper讼溺,因此先配置zookeeper并啟動(dòng))

    • zookeeper配置
      • cp conf/zoo_sample.cfg conf/zoo.cfg
      • bin/zkServer.sh start
    • kafka配置
      • vim kafka-2.6.0-src/config/zookeeper.properties

        server.1=192.168.1.190:2888:3888 //kafka集群ip:port
        
      • vim kafka-2.6.0-src/config/server.properties

        broker.id=0
        listeners=PLAINTEXT://192.168.1.190:9092
        zookeeper.connect=192.168.1.190:2181,192.168.1.191:2181,192.168.1.192:2181
        
      • 啟動(dòng)服務(wù)

      • ./bin/kafka-server-start.sh config/server.properties

      • 創(chuàng)建topic(測(cè)試)

      • ./bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic testtopic

      • 查詢topic(測(cè)試)

      • ./bin/kafka-topics.sh --zookeeper localhost:2181 --list

      • 發(fā)送消息(測(cè)試)

      • ./bin/kafka-console-producer.sh --broker-list localhost:9092 --topic testtopic

      • 接收消息(測(cè)試)

      • ./bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic testtopic --from-beginning

  • Logstash配置(input為監(jiān)控入地址楣号,output為elasticsearch出地址)

    • 設(shè)置輸入數(shù)據(jù)

    • vim /etc/logstash/conf.d/input.conf

      input {
              kafka {
                      type => "nginx_kafka"
                      codec => "json"
                      topics => "nginx"
                      decorate_events => true
                      bootstrap_servers => "localhost:9092"
              }
      }
      
    • 設(shè)置輸出數(shù)據(jù)

      output {
              if [type] == "nginx_kafka" {
                      elasticsearch {
                              hosts => ["localhost"]
                              index => 'logstash-nginx-%{+YYYY-MM-dd}'
                      }
              }
      }
      
    • service logstash start

  • filebeat配置

    • vim /etc/filebeat/filebeat.yml

      filebeat.inputs:
      - type: log
        paths:
          - /var/log/nginx/access.log
          json.keys_under_root: true
          json.add_error_key: true
          json.message_key: log
      output.kafka:
        hosts: ["localhost:9092"]
        topic: "nginx"
      
    • service filebeat start

  • 至此整套elk服務(wù)便部署好了

  • 可以打開 http://localhost:5601 -> StackManagement -> index Patterns 選擇 Create index pattern 設(shè)置過濾的key,然后創(chuàng)建規(guī)則怒坯,創(chuàng)建好后炫狱。

  • 打開 http://localhost:5601 -> Discover 查看對(duì)應(yīng)的log,使用filter進(jìn)行過濾剔猿。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末视译,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子归敬,更是在濱河造成了極大的恐慌酷含,老刑警劉巖,帶你破解...
    沈念sama閱讀 211,348評(píng)論 6 491
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件汪茧,死亡現(xiàn)場離奇詭異椅亚,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)舱污,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,122評(píng)論 2 385
  • 文/潘曉璐 我一進(jìn)店門呀舔,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人慌闭,你說我怎么就攤上這事别威。” “怎么了驴剔?”我有些...
    開封第一講書人閱讀 156,936評(píng)論 0 347
  • 文/不壞的土叔 我叫張陵,是天一觀的道長粥庄。 經(jīng)常有香客問我丧失,道長,這世上最難降的妖魔是什么惜互? 我笑而不...
    開封第一講書人閱讀 56,427評(píng)論 1 283
  • 正文 為了忘掉前任布讹,我火速辦了婚禮,結(jié)果婚禮上训堆,老公的妹妹穿的比我還像新娘描验。我一直安慰自己,他們只是感情好坑鱼,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,467評(píng)論 6 385
  • 文/花漫 我一把揭開白布膘流。 她就那樣靜靜地躺著絮缅,像睡著了一般。 火紅的嫁衣襯著肌膚如雪呼股。 梳的紋絲不亂的頭發(fā)上耕魄,一...
    開封第一講書人閱讀 49,785評(píng)論 1 290
  • 那天,我揣著相機(jī)與錄音彭谁,去河邊找鬼吸奴。 笑死,一個(gè)胖子當(dāng)著我的面吹牛缠局,可吹牛的內(nèi)容都是我干的则奥。 我是一名探鬼主播,決...
    沈念sama閱讀 38,931評(píng)論 3 406
  • 文/蒼蘭香墨 我猛地睜開眼狭园,長吁一口氣:“原來是場噩夢(mèng)啊……” “哼逞度!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起妙啃,我...
    開封第一講書人閱讀 37,696評(píng)論 0 266
  • 序言:老撾萬榮一對(duì)情侶失蹤档泽,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后揖赴,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體馆匿,經(jīng)...
    沈念sama閱讀 44,141評(píng)論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,483評(píng)論 2 327
  • 正文 我和宋清朗相戀三年燥滑,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了渐北。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 38,625評(píng)論 1 340
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡铭拧,死狀恐怖赃蛛,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情搀菩,我是刑警寧澤呕臂,帶...
    沈念sama閱讀 34,291評(píng)論 4 329
  • 正文 年R本政府宣布,位于F島的核電站肪跋,受9級(jí)特大地震影響歧蒋,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜州既,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,892評(píng)論 3 312
  • 文/蒙蒙 一谜洽、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧吴叶,春花似錦阐虚、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,741評(píng)論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽奥秆。三九已至,卻和暖如春磕洪,著一層夾襖步出監(jiān)牢的瞬間吭练,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 31,977評(píng)論 1 265
  • 我被黑心中介騙來泰國打工析显, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留鲫咽,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 46,324評(píng)論 2 360
  • 正文 我出身青樓谷异,卻偏偏與公主長得像分尸,于是被迫代替她去往敵國和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子歹嘹,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,492評(píng)論 2 348