1.參考資料
https://github.com/HikoQiu/kubeadm-install-k8s
https://kubernetes.io/docs/setup/independent/high-availability/
http://blog.51cto.com/nosmoking/2062887
2.基礎(chǔ)環(huán)境準(zhǔn)備
參照 https://my.oschina.net/baobao/blog/3029145 配置基礎(chǔ)環(huán)境
三臺(tái)服務(wù)器上安裝kubelet、kubeadm、kubectl,并確保kubelet開機(jī)啟動(dòng)###
修改三臺(tái)服務(wù)的 /etc/hosts 文件,服務(wù)器的名稱和解析的保持一致,例如 node1 node2 node3.加上apiServer的解析域名,可以自己定義,記得下面的步驟也要修改成相同的解析域名###
使用hosts代替了HA的解析功能,比較簡(jiǎn)單,也可用三臺(tái)服務(wù)器使用nginx實(shí)現(xiàn),每臺(tái)服務(wù)器也要做別名映射.###
?3.初始化kubeadm配置文件
kubeadm init 的配置文件 kubeadm-config.yaml ,拷貝到三臺(tái)服務(wù)器###
apiVersion: kubeadm.k8s.io/v1beta2
kind: ClusterConfiguration
###指定k8s的版本###
kubernetesVersion: v1.15.0
### 指定微軟云鏡像倉(cāng)庫(kù)###
imageRepository: gcr.azk8s.cn/google_containers
### apiServerCertSANs 填所有的masterip,lbip其它可能需要通過它訪問apiserver的地址,域名或主機(jī)名等 ###
### 如阿里fip,證書中會(huì)允許這些ip ###
### 這里填一個(gè)自定義的域名 ###
### 用于訪問APIServer的LB,一般通過nginx或者h(yuǎn)aproxy做集群解析.可以在每臺(tái)服務(wù)器做hosts映射到127.0.0.1 然后每臺(tái)服務(wù)器上都安裝nginx,做upstream,用于健康檢查. ###
### 這里我為了方便,修改三臺(tái)服務(wù)器上的 /etc/hosts ,把有三個(gè)master的IP都解析到 domain 的域名,hosts好像做了健康檢查,代替了DNS的功能 ###
apiServer:
###添加域名的SSL證書###
certSANs:
- "api.k8s.mzywx.com"
###apiServer的集群訪問地址###
controlPlaneEndpoint: "api.k8s.mzywx.com:6443"
### calico 網(wǎng)絡(luò)插件的子網(wǎng) ###
networking:
podSubnet: "192.168.0.0/16"
dnsDomain: cluster.local
serviceSubnet: "10.96.0.0/12"
把需要的鏡像下載到本地,這樣安裝過程會(huì)比較平穩(wěn)###
kubeadm config images pull --config kubeadm-config.yaml
4.安裝node1
我們目標(biāo)是要搭建一個(gè)高可用的 master集群,node2 node3需要依賴node1初始化產(chǎn)生的證書文件,所以需要先在node1初始化.
kubeadm init --config kubeadm-config.yaml
記下加入的命令,例如:
kubeadm join api.k8s.mzywx.com:6443 --token 39tdfod --discovery-token-ca-cert-hash sha256:4270dsf6f7
安裝網(wǎng)絡(luò)插件###
wget https://docs.projectcalico.org/v3.7/manifests/calico.yaml
可以修改文件中的 192.168.0.0/16,和kubeadm init中的 --pod-network-cidr=192.168.0.0/16 保持一致###
kubectl apply -f calico.yaml
master同時(shí)也做work節(jié)點(diǎn)###
kubectl taint nodes --all node-role.kubernetes.io/master-
node/master untainted
同步證書文件,使用shell腳本,把node1上產(chǎn)生的證書拷貝到node2和node3####
#!/bin/sh
vhost="node2 node3"
usr=root
who=`whoami`
if [[ "$who" != "$usr" ]];then
echo "請(qǐng)使用 root 用戶執(zhí)行或者 sudo ./sync.master.ca.sh"
exit 1
fi
echo $who
# 需要從 node1 拷貝的 ca 文件
caFiles=(
/etc/kubernetes/pki/ca.crt
/etc/kubernetes/pki/ca.key
/etc/kubernetes/pki/sa.key
/etc/kubernetes/pki/sa.pub
/etc/kubernetes/pki/front-proxy-ca.crt
/etc/kubernetes/pki/front-proxy-ca.key
/etc/kubernetes/pki/etcd/ca.crt
/etc/kubernetes/pki/etcd/ca.key
/etc/kubernetes/admin.conf
)
pkiDir=/etc/kubernetes/pki/etcd
for h in $vhost
do
ssh ${usr}@$h "mkdir -p $pkiDir"
echo "Dirs for ca scp created, start to scp..."
# scp 文件到目標(biāo)機(jī)
scp /etc/kubernetes/pki/ca.crt /etc/kubernetes/pki/ca.key /etc/kubernetes/pki/sa.key /etc/kubernetes/pki/sa.pub /etc/kubernetes/pki/front-proxy-ca.crt /etc/kubernetes/pki/front-proxy-ca.key ${usr}@$h:/etc/kubernetes/pki/
scp /etc/kubernetes/pki/etcd/ca.crt /etc/kubernetes/pki/etcd/ca.key ${usr}@$h:/etc/kubernetes/pki/etcd/
scp /etc/kubernetes/admin.conf ${usr}@$h:/etc/kubernetes/
echo "Ca files transfered for $h ... ok"
done
到node2和node3上查看/etc/kubernetes/ 目錄###
5.安裝node2,node3
在master的join命令里加入 --experimental-control-plane 參數(shù),這個(gè)就是master集群的加入,不是普通node節(jié)點(diǎn)的加入.
kubeadm join api.k8s.mzywx.com:6443 --token 39tdfod --discovery-token-ca-cert-hash sha256:4270dsf6f7 --experimental-control-plane
master同時(shí)也做work節(jié)點(diǎn)###
kubectl taint nodes --all node-role.kubernetes.io/master-
node3的操作和node2的一致###
6.查看節(jié)點(diǎn)狀態(tài)
kubectl get node
轉(zhuǎn)載自光石頭https://my.oschina.net/baobao/blog/3031712?tdsourcetag=s_pcqq_aiomsg