**目錄:**
1.? docker環(huán)境安裝
2.? zookeeper和kafka集群部署
3.? influxdb單例部署
4.? zkui、kafdrop咆贬、grafana等界面安裝
5.? storm集群部署
6.? canal部署
7.? portainer部署
## 集群部署總覽
| 172.22.12.20 | 172.22.12.21 | 172.22.12.22 | 172.22.12.23 | 172.22.12.24
| ------ | ------ | ------ | ------ | ------ |
| zoo1:2181 | zoo2:2182 | zoo3:2183 | zkui:9090 (admin/manager)| |
| kafka1:9092 | kafka2:9092 | kafka3:9092 | kafdrop:9000 | |
| influxdb:8086| | | grafana:3000 (admin/chanhu)| |
| storm-nimbus1 | storm-nimbus2 | storm-nimbus3 | portainer:9002(admin/chanhu@123)
| storm-supervisor1 | storm-supervisor2 | storm-supervisor3 |
||storm-ui:8080|
## docker安裝? ? ? ?
```
? yum update -y? ? ? ?
? yum install -y yum-utils device-mapper-persistent-data lvm2? ? ?
? yum-config-manager? --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo? ? ?
? yum install docker-ce docker-ce-cli containerd.io? ?
? systemctl start docker? ?
```
## docker-compose安裝? ?
```
? yum install epel-release? ?
? yum install -y python-pip? ?
? pip install --upgrade pip? ?
? pip install docker-compose? ?
```
## 修改每一臺(tái)宿主機(jī)的hosts文件? ? ?
```
vim /etc/hosts? ?
172.22.12.20 datacloud0? ?
172.22.12.21 datacloud1? ?
172.22.12.22 datacloud2? ?
172.22.12.23 datacloud3? ?
172.22.12.24 datacloud4? ?
```
## zookeeper集群? ?
在20路克,21谍憔,22三臺(tái)機(jī)器部署zk集群李皇,分別編寫docker-compose文件? ? ?
集群中如果只剩一臺(tái)是正常運(yùn)行的危队,則集群失效? ?
以其中一臺(tái)為例:
```?
? ? zoo:? ?
? ? ? ? image: zookeeper:3.4.14? ?
? ? ? ? restart: always? ?
? ? ? ? hostname: zoo1? ?
? ? ? ? container_name: zoo1? ?
? ? ? ? ports:? ?
? ? ? ? ? - 2181:2181? ?
? ? ? ? ? - 2888:2888? ?
? ? ? ? ? - 3888:3888? ?
? ? ? ? volumes:? ?
? ? ? ? ? - "./zoo/data:/data"? ?
? ? ? ? ? - "./zoo/datalog:/datalog"? ?
? ? ? ? environment:? ?
? ? ? ? ? ZOO_MY_ID: 1? ?
? ? ? ? ? ZOO_SERVERS: server.1=0.0.0.0:2888:3888 server.2=172.22.12.21:2888:3888 server.3=172.22.12.22:2888:3888? ?
```
"./zoo/data:/data"為數(shù)據(jù)目錄掛載温学,必須配置? ?
環(huán)境變量配置略贮, `ZOO_MY_ID`三臺(tái)分別是1、2仗岖、3逃延,`ZOO_SERVERS`配置的是集群地址,其中當(dāng)前機(jī)器為0.0.0.0? ?
## kakfa集群? ?
在20箩帚,21真友,22三臺(tái)機(jī)器部署kafka集群,分別編寫docker-compose文件(可以和zk的docker-compose文件寫在一起)? ?
以其中一臺(tái)為例:
```? ?
? ? ? kafka:? ?
? ? ? ? image: wurstmeister/kafka:2.12-2.2.2? ?
? ? ? ? restart: always? ?
? ? ? ? hostname: kafka1? ?
? ? ? ? container_name: kafka1? ?
? ? ? ? ports:? ?
? ? ? ? ? - "9092:9092"? ?
? ? ? ? environment:? ?
? ? ? ? ? KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://172.22.12.20:9092? ?
? ? ? ? ? KAFKA_ADVERTISED_HOST_NAME: 172.22.12.20? ?
? ? ? ? ? KAFKA_ADVERTISED_PORT: 9092? ?
? ? ? ? ? KAFKA_ZOOKEEPER_CONNECT: 172.22.12.20:2181,172.22.12.21:2181,172.22.12.22:2181? ?
? ? ? ? volumes:? ?
? ? ? ? ? - ./kafka/logs:/kafka?
```?
沒有太多需要注意的地方紧帕,`KAFKA_ZOOKEEPER_CONNECT`正確配置好zk集群地址,還有ADVERTISED相關(guān)配置為當(dāng)前容器盔然。? ?
## influxdb?
```?
? ? ? influxdb:? ?
? ? ? ? image: influxdb:1.7? ?
? ? ? ? restart: always? ?
? ? ? ? container_name: influxdb? ?
? ? ? ? ports:? ?
? ? ? ? ? - "2003:2003"? ?
? ? ? ? ? - "8086:8086"? ?
? ? ? ? ? - "8089:8089"? ?
? ? ? ? ? - "8091:8091"? ?
? ? ? ? volumes:? ?
? ? ? ? ? - "./influxdb:/var/lib/influxdb"? ?
? ? ? ? environment:? ?
? ? ? ? ? - INFLUXDB_GRAPHITE_ENABLED=true? ?
```? ?
"./influxdb:/var/lib/influxdb"為數(shù)據(jù)目錄掛載,**必須配置**是嗜。INFLUXDB_GRAPHITE_ENABLED啟動(dòng)graphite功能愈案。? ?
influxdb簡(jiǎn)單操作:
*? docker exec -it influxdb influx? ?
? show databases? ?
? create database XX? ?
? use XX? ?
? INSERT cpu,host=serverA,region=us_west value=0.64? ?
? SELECT "host", "region", "value" FROM "cpu"*
## docker-compose相關(guān)操作? ?
? ? docker-compose [-f <文件名>] up -d? ?
? ? docker-compose [-f <文件名>] down? ?
## zkui/kafdrop/grafana? ?
在23機(jī)器上,部署這三個(gè)web界面:
```? ?
? ? ? zkui:? ?
? ? ? ? image: maauso/zkui? ?
? ? ? ? restart: always? ?
? ? ? ? container_name: zkui? ?
? ? ? ? ports:? ?
? ? ? ? ? - 9090:9090? ?
? ? ? ? environment:? ?
? ? ? ? ? ZKLIST: 172.22.12.20:2181,172.22.12.21:2181,172.22.12.22:2181? ?
? ? ? kafdrop:? ?
? ? ? ? image: obsidiandynamics/kafdrop:latest? ?
? ? ? ? restart: always? ?
? ? ? ? container_name: kafdrop? ?
? ? ? ? ports:? ?
? ? ? ? ? - "9000:9000"? ?
? ? ? ? environment:? ?
? ? ? ? ? KAFKA_BROKERCONNECT: 172.22.12.20:9092,172.22.12.20:9092,172.22.12.20:9092? ?
? ? ? grafana:? ?
? ? ? ? image: grafana/grafana:master? ?
? ? ? ? restart: always? ?
? ? ? ? container_name: grafana? ?
? ? ? ? ports:? ?
? ? ? ? ? - "3000:3000"? ?
? ? ? ? volumes:? ?
? ? ? ? ? - "./grafana:/var/lib/grafana"?
```?
因?yàn)槭莣eb頁(yè)面鹅搪,配置好相關(guān)服務(wù)地址站绪,啟動(dòng)就行了? ?
其中g(shù)rafana需要配置目錄掛載,主要是記錄自定義的數(shù)據(jù)源和面板配置等(這里需要chmod -R 777 grafana/)?
## storm集群
1.? storm集群由`nimbus丽柿、supervisor恢准、ui`三部分組成?
nimbus為主節(jié)點(diǎn)魂挂,supervisor為從節(jié)點(diǎn),前者將任務(wù)發(fā)到zookeeper上馁筐,后者到zookeeper上獲取任務(wù)涂召。ui為web頁(yè)面。?
20敏沉、21果正、22三臺(tái)機(jī)器分別部署nimbus和supervisor節(jié)點(diǎn)各三個(gè),且建議單獨(dú)建立docker-compose腳本文件盟迟,在zookeeper啟動(dòng)后執(zhí)行秋泳。?
docker-compose腳本大致如下:?
```
? nimbus:
? ? image: storm:2.2.0
? ? container_name: nimbus1
? ? command: storm nimbus
? ? restart: always
? ? hostname: nimbus1
? ? ports:
? ? ? - 6627:6627
? ? volumes:
? ? ? - "./storm.yaml:/conf/storm.yaml"
? ? ? - "./nimbus/data:/data"
? ? ? - "./nimbus/logs:/logs"
? supervisor:
? ? image: storm:2.2.0
? ? container_name: supervisor1
? ? command: storm supervisor
? ? hostname: supervisor1
? ? depends_on:
? ? ? - nimbus
? ? links:
? ? ? - nimbus:nimbus
? ? restart: always
? ? volumes:
? ? ? - "./storm.yaml:/conf/storm.yaml"
? ? ? - "./supervisor/data:/data"
? ? ? - "./supervisor/logs:/logs"
```
nimbus、supervisor攒菠、ui都是使用同一個(gè)storm鏡像迫皱,只是啟動(dòng)參數(shù)時(shí)command不同。?
> 這里指定nimbus和supervisor的hostname要尔,原因是默認(rèn)情況下它們注冊(cè)到zookeeper時(shí)的host為docker容器隨機(jī)生成的uuid舍杜,?
> 如果nimbus和supervisor重啟了,其容器uuid也會(huì)重置赵辕,這時(shí)就和zookeeper中已經(jīng)保存的uuid沖突既绩,發(fā)生錯(cuò)誤。? ?
> 網(wǎng)上的方案是:1.停掉storm集群后刪除zookeeper上的storm節(jié)點(diǎn)并重啟zookeeper+storm集群还惠;2.單獨(dú)建一個(gè)無(wú)狀態(tài)的zookeeper來(lái)給storm集群使用? ?
這里采取的方案是指定nimbus和supervisor注冊(cè)時(shí)的host饲握,其重啟時(shí)不會(huì)產(chǎn)生變化? ?
2. 啟動(dòng)時(shí)需要指定一些環(huán)境變量,這里采用本地配置文件映射的方式蚕键,storm.yaml配置如下:?
```
storm.zookeeper.servers:
? - "172.22.12.20"
? - "172.22.12.21"
? - "172.22.12.22"
nimbus.seeds:
? - "nimbus1"
? - "nimbus2"
? - "nimbus3"
storm.log.dir: "/logs"
storm.local.dir: "/data"
storm.cluster.mode: distributed
```
storm.zookeeper.servers為zookeeper地址救欧,默認(rèn)取端口2181。nimbus.seeds為nimbus集群地址锣光,這里取docker-compose中自定義的hostname笆怠。?
3. storm-ui啟動(dòng)單例即可,docker-compose配置如下:?
```
? storm-ui:
? ? image: storm:2.2.0
? ? container_name: storm-ui
? ? command: storm ui
? ? depends_on:
? ? ? - nimbus
? ? links:
? ? ? - nimbus:nimbus
? ? restart: always
? ? ports:
? ? ? - 8080:8080
? ? volumes:
? ? ? - "./storm.yaml:/conf/storm.yaml"
? ? ? - "./ui/data:/data"
? ? ? - "./ui/logs:/logs"
? ? extra_hosts:
? ? ? - "nimbus1:172.22.12.20"
? ? ? - "nimbus2:172.22.12.21"
? ? ? - "nimbus3:172.22.12.22"
? ? ? - "supervisor1:172.22.12.20"
? ? ? - "supervisor2:172.22.12.21"
? ? ? - "supervisor3:172.22.12.22"
```
其中`extra_hosts`為容器啟動(dòng)后自定義的host映射誊爹,這樣ui頁(yè)面啟動(dòng)后才能通過注冊(cè)上來(lái)的別名host對(duì)應(yīng)到真正的ip地址蹬刷。?
> 部署docker容器時(shí)經(jīng)常會(huì)遇到需要映射宿主機(jī)的配置文件到容器里,這樣容器重啟后配置就不會(huì)重置频丘。?
> 比如storm配置:- "./storm.yaml:/conf/storm.yaml"
> 但是映射后如果本地沒有正確格式的storm.yaml就會(huì)啟動(dòng)失敗办成,除了去官網(wǎng)下載安裝包拿到其配置文件以外,可以先啟動(dòng)一個(gè)臨時(shí)容器并拷貝其配置文件到宿主機(jī)搂漠。?
> docker run -d --name nimbus-tmp storm:2.2.0 storm nimbus?
> docker cp nimbus-tmp:/conf/storm.yaml 本地文件夾路徑/? ?
## canal部署
canal部署前需要對(duì)其要連接的mysql做相應(yīng)配置:
```
[mysqld]
log-bin=mysql-bin # 開啟 binlog
binlog-format=ROW # 選擇 ROW 模式
server_id=1 # 配置 MySQL replaction 需要定義迂卢,不要和 canal 的 slaveId 重復(fù)?
```
canal的docker-compose配置如下:?
```
? canal-server:
? ? image: canal/canal-server:v1.1.3
? ? container_name: canal-server
? ? ports:
? ? ? - 11111:11111
? ? environment:
? ? ? - canal.instance.mysql.slaveId=12
? ? ? - canal.auto.scan=false
? ? ? - canal.destinations=datacloud
? ? ? - canal.instance.master.address=10.23.16.32:3307
? ? ? - canal.instance.dbUsername=root
? ? ? - canal.instance.dbPassword=chinaunicom@dengfy
? ? ? - canal.instance.filter.regex=river\\..*
? ? volumes:
? ? ? - ./canal-server/logs/:/admin/canal-server/logs/
```
其中`slaveId`需要和mysql中配置不同,`destinations`為自定義的實(shí)例名,`canal.instance.filter.regex`為需要監(jiān)控的數(shù)據(jù)庫(kù)表過濾而克。
## portainer部署
portainer時(shí)docker容器的可視化管理工具靶壮,可以管理上述的幾臺(tái)機(jī)器的docker容器,查看日志拍摇,修改啟動(dòng)腳本亮钦,停止容器等。? ?
首先要對(duì)每一臺(tái)機(jī)器開啟docker api接口:?
```
1.vim /usr/lib/systemd/system/docker.service? ?
在ExecStart啟動(dòng)項(xiàng)添加-H tcp://0.0.0.0:2375 -H unix:///var/run/docker.sock
2.重啟docker服務(wù) systemctl daemon-reload? systemctl restart docker?
```
在其中一臺(tái)機(jī)器上部署portainer容器:?
```
? portainer:
? ? image: portainer/portainer:1.24.1
? ? restart: always
? ? container_name: portainer_datacloud
? ? ports:
? ? ? - "8000:8000"
? ? ? - "9002:9000"
? ? volumes:
? ? ? - "./portainer/data:/data"
? ? ? - "/var/run/docker.sock:/var/run/docker.sock"
```
"/var/run/docker.sock:/var/run/docker.sock" 此條映射關(guān)系是單機(jī)模式下使用充活,我們采用的是遠(yuǎn)程api調(diào)用,因此可以不加蜡娶。?
打開ip:9002后混卵,注冊(cè)用戶登錄,settings>endpoints>Add endpoint>選擇docker方式窖张。? ?
其中Endpoint URL填寫目標(biāo)ip:2375,Public IP添加目標(biāo)ip幕随,提交后即可看到其所有容器信息。