概念
PVC 的全稱是:PersistentVolumeClaim(持久化卷聲明)火邓,PVC 是用戶存儲的一種聲明空厌,PVC 和 Pod 比較類似堤器,Pod 消耗的是節(jié)點(diǎn)泉蝌,PVC 消耗的是 PV 資源歇万,Pod 可以請求 CPU 和內(nèi)存,而 PVC 可以請求特定的存儲空間和訪問模式勋陪。對于真正使用存儲的用戶不需要關(guān)心底層的存儲實(shí)現(xiàn)細(xì)節(jié)贪磺,只需要直接使用 PVC 即可。
準(zhǔn)備工作
在使用 PVC 之前诅愚,我們還得把其他節(jié)點(diǎn)上的 nfs 客戶端給安裝上寒锚,比如我們這里:
$ kubectl get nodes
NAME STATUS ROLES AGE VERSION
10.8.13.84 Ready <none> 53d v1.14.1
10.8.13.85 Ready <none> 53d v1.14.1
需要在所有節(jié)點(diǎn)安裝 nfs 客戶端程序,必須在所有節(jié)點(diǎn)都安裝 nfs 客戶端违孝,否則可能會導(dǎo)致 PV 掛載不上的問題刹前。
安裝命令如下:
yum -y install nfs-utils rpcbind
新建 PVC
同樣的,我們來新建一個(gè)數(shù)據(jù)卷聲明雌桑,來請求 1Gi 的存儲容量喇喉,訪問模式也是 ReadWriteOnce,YAML 文件如下:(pvc-nfs.yaml)
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: pvc-nfs
spec:
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 1Gi
可以看到這里的聲明方法幾乎和新建 PV 是一樣的校坑,在新建 PVC 之前拣技,可以看下之前創(chuàng)建的 PV 的狀態(tài):
kubectl get pv
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pv-nfs 1Gi RWO Recycle Available 19m
可以看到當(dāng)前 pv-nfs 是在 Available 的一個(gè)狀態(tài),所以這個(gè)時(shí)候 PVC 可以和這個(gè) PV 進(jìn)行綁定:
$ kubectl create -f pvc-nfs.yaml
persistentvolumeclaim "pvc-nfs" created
$ kubectl get pvc
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
pvc-nfs Bound pv-nfs 1Gi RWO 12s
可以看到 pvc-nfs 創(chuàng)建成功了耍目,狀態(tài)是 Bound 狀態(tài)了膏斤,這個(gè)時(shí)候再看下 PV 的狀態(tài)呢:
$ kubectl get pv
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pv-nfs 1Gi RWO Recycle Bound default/pvc-nfs 23m
可以看到 PV 也是 Bound 狀態(tài)了,對應(yīng)的聲明是 default/pvc-nfs邪驮,就是 default 命名空間下面的 pvc-nfs莫辨,證明剛剛新建的 pvc-nfs 和 pv-nfs 綁定成功了。
提問:并沒有在 pvc-nfs 中指定關(guān)于 pv 的什么標(biāo)志,它們之間是怎么就關(guān)聯(lián)起來了的呢衔掸?
解答:其實(shí)這是系統(tǒng)自動幫我們?nèi)テヅ涞奶棠唬鼤鶕?jù)我們的聲明要求去查找處于 Available 狀態(tài)的 PV俺抽,如果沒有找到的話那么PVC 就會一直處于 Pending 狀態(tài)敞映,找到了的話當(dāng)然就會把當(dāng)前的 PVC 和目標(biāo) PV 進(jìn)行綁定,這個(gè)時(shí)候狀態(tài)就會變成 Bound 狀態(tài)了磷斧。
使用 PVC
使用之前的 nginx 的鏡像來測試下:(nfs-pvc-deploy.yaml)
apiVersion: apps/v1beta1
kind: Deployment
metadata:
name: nfs-pvc
spec:
replicas: 3
template:
metadata:
labels:
app: nfs-pvc
spec:
containers:
- name: nginx
image: nginx:1.7.9
imagePullPolicy: IfNotPresent
ports:
- containerPort: 80
name: web
volumeMounts: #掛載容器中的目錄到pvc nfs中的目錄
- name: www
mountPath: /usr/share/nginx/html
volumes:
- name: www
persistentVolumeClaim: #指定pvc
claimName: pvc-nfs
---
apiVersion: v1
kind: Service
metadata:
name: nfs-pvc
labels:
app: nfs-pvc
spec:
type: NodePort
ports:
- port: 80
targetPort: web #容器端口或名字
selector:
app: nfs-pvc
這里使用 nginx 鏡像振愿,將容器的 /usr/share/nginx/html 目錄通過 volume 掛載到名為 pvc-nfs 的 PVC 上面,然后創(chuàng)建一個(gè) NodePort 類型的 Service 來暴露服務(wù):
$ kubectl create -f nfs-pvc-deploy.yaml
deployment.extensions "nfs-pvc" created
service "nfs-pvc" created
$ kubectl get pods
kubectl get pods
NAME READY STATUS RESTARTS AGE
...
nfs-pvc-57c9945bd9-5r4r6 1/1 Running 0 19s
nfs-pvc-57c9945bd9-gz6p9 1/1 Running 0 19s
nfs-pvc-57c9945bd9-x6mvc 1/1 Running 0 19s
...
$ kubectl get svc
kubectl get svc
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
...
nfs-pvc NodePort 10.98.246.155 <none> 80:30769/TCP 1m
...
然后就可以通過任意節(jié)點(diǎn)的 IP:30769 端口來訪問這里的 Nginx 服務(wù)了弛饭,但是這個(gè)時(shí)候訪問會出現(xiàn)403冕末,這是為什么?我們再去看看 nfs 共享數(shù)據(jù)目錄下面有沒有數(shù)據(jù)呢侣颂?
$ ls /data/k8s
發(fā)現(xiàn)并沒有任何數(shù)據(jù)档桃,這是因?yàn)槲覀儼讶萜髂夸?user/share/nginx/html和掛載到了pvc-nfs這個(gè) PVC 上面,這個(gè) PVC 就是對應(yīng)著我們上面的 nfs 的共享數(shù)據(jù)目錄的憔晒,該目錄下面還沒有任何數(shù)據(jù)藻肄,所以我們訪問就出現(xiàn)了403,現(xiàn)在我們在/data/k8s這個(gè)目錄下面新建一個(gè) index.html 的文件:
$ echo "<h1>Hello Kubernetes~</h1>" >> /data/k8s/index.html
$ ls /data/k8s/
index.html
可以看到共享數(shù)據(jù)目錄中已經(jīng)有一個(gè) index.html 的文件了拒担,由于我們掛載了 pvc2-nfs 到上面的 nginx 容器中去嘹屯,是不是這個(gè)時(shí)候容器目錄/user/share/nginx/html下面也有index.html這個(gè)文件了啊从撼?所以這個(gè)時(shí)候我們再來訪問下服務(wù)州弟,任一節(jié)點(diǎn)IP:30769:
現(xiàn)在是不是正常了啊,但是我們可以看到我們?nèi)萜髦械臄?shù)據(jù)是直接放到共享數(shù)據(jù)目錄根目錄下面的低零,如果以后有一個(gè)新的 nginx 容器也做了數(shù)據(jù)目錄的掛載婆翔,會發(fā)生沖突,所以這個(gè)時(shí)候就不太好區(qū)分了掏婶,可以在 Pod 中使用一個(gè)新的屬性:subPath啃奴,該屬性可以來解決這個(gè)問題,只需要更改上面的 Pod 的 YAML 文件即可:
創(chuàng)建pvc子目錄
volumeMounts:
- name: www
subPath: nginxpvc-test
mountPath: /usr/share/nginx/html
更改完 YAML 文件后气堕,我們重新更新即可:
$ kubectl apply -f nfs-pvc-deploy.yaml
Warning: kubectl apply should be used on resource created by either kubectl create --save-config or kubectl apply
deployment.extensions "nfs-pvc" configured
Warning: kubectl apply should be used on resource created by either kubectl create --save-config or kubectl apply
service "nfs-pvc" configured
更新完后纺腊,我們再去看看 nfs 的數(shù)據(jù)共享目錄:
$ ls /data/k8s/
index.html nginxpvc-test
$ ls /data/k8s/nginxpvc-test/