SOFABoot 是螞蟻金服中間件團(tuán)隊開源的基于 Spring Boot 的一個開發(fā)框架宫峦,其在 Spring Boot 的健康檢查的基礎(chǔ)上痛阻,加上了 Readiness Check 的能力书劝,以更好地適應(yīng)大規(guī)模金融級的服務(wù)化場景驼鹅,防止在應(yīng)用啟動有問題的情況下讓外部流量進(jìn)入應(yīng)用绣夺。在本文中换棚,我們將通過 Kubernetes 來演示 SOFABoot 的 Readiness Check 的能力,主要涉及到兩個部分的能力的演示:
- SOFABoot 的 Readiness Check 失敗之后涛癌,SOFABoot 不會將發(fā)布的 RPC 服務(wù)的地址注冊到 ZooKeeper 上面犯戏,防止 RPC 的流量進(jìn)入送火。
- Kubernetes 通過
http://localhost:8080/health/readiness
訪問到 SOFABoot 的 Readiness 檢查的結(jié)果之后,不會將 Pod 掛到對應(yīng)的 Service 之上先匪,防止 Kubernetes 上的流量進(jìn)入种吸。
準(zhǔn)備一個 Kubernetes 的環(huán)境
為了演示在 Kubernetes 中使用 SOFABoot 的 Readiness Check 的能力,首先需要準(zhǔn)備好一個 Kubernetes 的環(huán)境呀非,在這個例子中坚俗,我們直接選擇在本機(jī)安裝一個 minikube,minikube 是 Kubernetes 為了方便研發(fā)人員在自己的研發(fā)機(jī)器上嘗試 Kubernetes 而準(zhǔn)備的一個工具岸裙,對于學(xué)習(xí) Kubernetes 的使用非常方便猖败。關(guān)于如何在本機(jī)安裝 minikube,大家參考這個官方的安裝教程即可降允。
安裝完成以后恩闻,大家可以直接終端中使用 minikube start
來啟動 minikube。
<em>需要?注意的是剧董,由于國內(nèi)網(wǎng)絡(luò)環(huán)境的問題判呕,直接用 </em><code><em>minikube start</em></code><em> 可能會無法啟動 minikube,如果遇到無法啟動 minikube 的問題送滞,可以嘗試加上代理的設(shè)置侠草,大家可以參考以下的命令來設(shè)置代理服務(wù)器的地址:</em>
minikube start --docker-env HTTP_PROXY=http://xxx.xxx.xxx.xxx:6152 --docker-env HTTPS_PROXY=http://xxx.xxx.xxx.xxx:6152
在 Kubernetes 上安裝一個 ZooKeeper
在準(zhǔn)備好了 Kubernetes 的環(huán)境之后,我們接下來需要在 Kubernetes 上安裝一個 ZooKeeper 作為 SOFARPC 的服務(wù)自動發(fā)現(xiàn)的組件犁嗅。首先我們需要有一個 ZooKeeper 的 Deployment:
apiVersion: apps/v1beta1
kind: Deployment
metadata:
name: zookeeper-deployment
labels:
app: zookeeper
spec:
replicas: 1
selector:
matchLabels:
app: zookeeper
template:
metadata:
labels:
app: zookeeper
spec:
containers:
- name: zookeeper
image: zookeeper
imagePullPolicy: IfNotPresent
ports:
- containerPort: 2181
這個 Deployment 會部署一個 ZooKeeper 的實例边涕,并且將 2181 端口暴露出來。
有了這個 YAML 文件之后褂微,我們再部署一個 Service 來作為 ZooKeeper 的負(fù)載均衡功蜓,這樣我們在應(yīng)用中就可以直接通過域名來訪問,而不用 IP 來訪問 ZooKeeper 了宠蚂。這個 Service 的 Yaml 文件如下:
apiVersion: v1
kind: Service
metadata:
name: zookeeper-service
spec:
selector:
app: zookeeper
ports:
- protocol: TCP
port: 2181
targetPort: 2181
這個 Service 直接將 2181 端口映射到 ZooKeeper 的 2181 端口上式撼,這樣,我們就可以在應(yīng)用中直接通過 zookeeper-service:2181
來訪問了求厕。
準(zhǔn)備一個 SOFABoot 的應(yīng)用
在前面的兩步都 OK 之后著隆,我們需要準(zhǔn)備好一個 SOFABoot 的應(yīng)用,并且在這個應(yīng)用中發(fā)布一個 SOFARPC 的服務(wù)呀癣。首先美浦,我們需要從 start.spring.io 上生成一個工程,例如 GroupId 設(shè)置為 <span data-type="color" style="color: rgb(36, 41, 46);">com.alipay.sofa项栏,ArtifactId 設(shè)置為 rpcserver浦辨。</span>
<span data-type="color" style="color: rgb(36, 41, 46);">生成好了之后,接下來沼沈,我們需要把 SOFABoot 的依賴加上流酬,將 pom.xml 中的 parent 修改成:</span>
<parent>
<groupId>com.alipay.sofa</groupId>
<artifactId>sofaboot-dependencies</artifactId>
<version>2.3.1</version>
</parent>
然后币厕,增加一個 SOFARPC 的 Starter 的依賴:
<dependency>
<groupId>com.alipay.sofa</groupId>
<artifactId>rpc-sofa-boot-starter</artifactId>
</dependency>
接著,在 application.properties 里面加上我們的配置芽腾,包括應(yīng)用名和 ZooKeeper 的地址:
# Application Name
spring.application.name=SOFABoot Demo
# ZooKeeper 的地址
com.alipay.sofa.rpc.registry.address=zookeeper://127.0.0.1:2181
上面的事情準(zhǔn)備好之后劈榨,我們可以在應(yīng)用中發(fā)布一個服務(wù),首先晦嵌,我們需要分別聲明好一個接口和一個實現(xiàn):
package com.alipay.sofa.rpcserver;
public interface SampleService {
String hello();
}
package com.alipay.sofa.rpcserver;
public class SampleServiceImpl implements SampleService {
@Override
public String hello() {
return "Hello";
}
}
接下來,將這個接口和實現(xiàn)發(fā)布成一個 SOFARPC 的服務(wù)拷姿,我們可以新建一個 src/main/resources/spring/rpc-server.xml
的文件:
<?xml version="1.0" encoding="UTF-8"?>
<beans xmlns="http://www.springframework.org/schema/beans"
xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xmlns:sofa="http://sofastack.io/schema/sofaboot"
xsi:schemaLocation="http://www.springframework.org/schema/beans http://www.springframework.org/schema/beans/spring-beans.xsd
http://sofastack.io/schema/sofaboot http://sofastack.io/schema/sofaboot.xsd">
<bean class="com.alipay.sofa.rpcserver.SampleServiceImpl" id="sampleService"/>
<sofa:service ref="sampleService" interface="com.alipay.sofa.rpcserver.SampleService">
<sofa:binding.bolt/>
</sofa:service>
</beans>
需要注意的是惭载,通過 XML 定義好上面的服務(wù)之后,我們還需要在 Main 函數(shù)所在的類里面增加一個 @Import
响巢,將 XML Import 進(jìn)去:
package com.alipay.sofa.rpcserver;
import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
import org.springframework.context.annotation.ImportResource;
@SpringBootApplication
@ImportResource("classpath*:spring/*.xml")
public class RpcServerApplication {
public static void main(String[] args) {
SpringApplication.run(RpcServerApplication.class, args);
}
}
然后?描滔,為了演示 Readiness Check 的能力,我們還需要增加一個 HealthIndicator 來控制 Readiness Check 的結(jié)果:
package com.alipay.sofa.rpcserver;
import org.springframework.boot.actuate.health.Health;
import org.springframework.boot.actuate.health.HealthIndicator;
import org.springframework.stereotype.Component;
@Component
public class SampleHealthIndicator implements HealthIndicator {
@Override
public Health health() {
return Health.up().build();
}
}
這里?踪古,我們首先直接返回成功含长,先演示 Readiness Check 成功的場景。
將應(yīng)用部署到 Kubernetes 里面
在前面的步驟完成之后伏穆,應(yīng)用的代碼都已經(jīng)準(zhǔn)備好了拘泞,現(xiàn)在可以準(zhǔn)備將應(yīng)用部署到 Kubernetes 里面。首先枕扫,需要將應(yīng)用打包成一個 Docker 鏡像陪腌,需要注意的是,為了讓 Kubernetes 能夠找到這個 Docker 鏡像烟瞧,在打包鏡像之前诗鸭,要先將 Docker 環(huán)境切成 Minikube 的環(huán)境,運(yùn)行以下的命令即可:
eval $(minikube docker-env)
然后準(zhǔn)備一個 Dockerfile:
FROM openjdk:8-jdk-alpine
ARG JAR_FILE
ADD ${JAR_FILE} app.jar
ENTRYPOINT [ "java", "-jar", "/app.jar"]
最后参滴,運(yùn)行如下的命令來進(jìn)行打包:
docker build --build-arg JAR_FILE=./target/rpcserver-0.0.1-SNAPSHOT.jar . -t rpc-server-up
其中 JAR_FILE 參數(shù) SOFABoot 應(yīng)用程序的 JAR 包路徑强岸。鏡像打包出來后,我們就可以準(zhǔn)備一個 YAML 來部署應(yīng)用了:
apiVersion: apps/v1beta1
kind: Deployment
metadata:
name: rpc-server-deployment
labels:
app: rpc-server
spec:
replicas: 1
selector:
matchLabels:
app: rpc-server
template:
metadata:
labels:
app: rpc-server
spec:
containers:
- name: rpc-server
image: rpc-server-up
imagePullPolicy: IfNotPresent
ports:
- containerPort: 8080
readinessProbe:
httpGet:
path: /health/readiness
port: 8080
注意在上個面的 YAML 中砾赔,我們定義了一個 Kubernetes 的 Readiness Probe蝌箍,訪問 localhost:8080/health/readiness
來獲取 SOFABoot Readiness Check 的結(jié)果。
打包完成之后暴心,可以運(yùn)行如下的命令來將應(yīng)用部署到 Kubernetes 中:
kubectl apply -f rpcserver.xml
部署完成后十绑,我們再通過一個 Service,將應(yīng)用的實例掛到一個 Service 下面去酷勺,這樣就可以通過查看 Service 下的 EndPoint 節(jié)點的數(shù)量來看 Readiness Check 是否起作用了:
apiVersion: v1
kind: Service
metadata:
name: rpc-server-service
spec:
selector:
app: rpc-server
ports:
- protocol: TCP
port: 8080
targetPort: 8080
運(yùn)行如下命令將 Service 部署到 Kubernetes 里面去:
kubectl apply -f rpc-server-service.yml
Readiness Check 成功的節(jié)點掛載情況
由于上面我們寫的 HealthIndicator 直接返回了一個 Up本橙,所以 Readiness Check 應(yīng)該成功,我們可以分別從 ZooKeeper 和 Service 里面查看節(jié)點的情況脆诉。
首先看下 ZooKeeper 里面甚亭,為了查看 ZooKeeper 里面的節(jié)點的情況贷币,需要在本地有一個 ZooKeeper 的程序在,這個可以直接從 ZooKeeper 的官網(wǎng)上下載亏狰。
然后役纹,我們需要拿到在 Kubernetes 里面部署的 ZooKeeper 的對外暴露的地址,通過如下命令拿到地址:
kubectl expose deployment zookeeper-deployment --type=NodePort && minikube service zookeeper-deployment --url
在我本機(jī)拿到的地址是 192.168.99.100:30180
然后暇唾,就可以通過本地的 ZooKeeper 程序里面的 zkCli.sh 來查看 ZooKeeper 里面的節(jié)點了促脉,運(yùn)行如下的命令:
./zkCli.sh -server 192.168.99.100:30180
......
[zk: 192.168.99.100:30180(CONNECTED) 5]ls /sofa-rpc/com.alipay.sofa.rpcserver.SampleService/providers
就可以看到里面有一個節(jié)點的信息,就是我們的 rpcserver 部署在 Kubernetes 里面的節(jié)點策州。
也可以去看下 rpcserver 的 Service 里面的節(jié)點的信息瘸味,運(yùn)行如下的命令:
kubectl describe service rpc-server-service
也可以看到紅框中有一個節(jié)點的信息。
Readiness Check 失敗的節(jié)點掛載情況
在上面够挂,我們已經(jīng)看到了 Readiness Check 成功之后旁仿,可以在 ZooKeeper 里面和 Service 的 EndPoints 里面都可以看到節(jié)點的信息,現(xiàn)在來看下 Readiness Check 失敗后的情況孽糖。
為了讓 Readiness Check 失敗枯冈,要將之前寫的 SampleHealthIndicator 改成 Down,代碼如下:
package com.alipay.sofa.rpcserver;
import org.springframework.boot.actuate.health.Health;
import org.springframework.boot.actuate.health.HealthIndicator;
import org.springframework.stereotype.Component;
@Component
public class SampleHealthIndicator implements HealthIndicator {
@Override
public Health health() {
return Health.down().build();
}
}
然后使用 mvn clean install
重新打包程序办悟,打包之后尘奏,我們需要重新構(gòu)建鏡像,為了跟前面的 Readiness Check 成功的鏡像以示區(qū)分病蛉,我們將鏡像的名稱換成 rpc-server-down
:
docker build --build-arg JAR_FILE=./target/rpcserver-0.0.1-SNAPSHOT.jar . -t rpc-server-down
然后我們再將之前的應(yīng)用的 Deployment 的 YAML 文件中的鏡像名稱換成新的鏡像名稱罪既,其他保持不變:
apiVersion: apps/v1beta1
kind: Deployment
metadata:
name: rpc-server-deployment
labels:
app: rpc-server
spec:
replicas: 1
selector:
matchLabels:
app: rpc-server
template:
metadata:
labels:
app: rpc-server
spec:
containers:
- name: rpc-server
image: rpc-server-down
imagePullPolicy: IfNotPresent
ports:
- containerPort: 8080
readinessProbe:
httpGet:
path: /health/readiness
port: 8080
最后,通過 kubectl apply -f rpcserver.yml
來更新 Kubernetes 里面的 RPCServer 這個應(yīng)用铡恕。
更新之后琢感,我們再去 ZooKeeper 里面看下服務(wù)發(fā)布的情況,就只能看到一個空的列表了:
通過 kubectl describe 查看新的 Pod 的情況探熔,也可以看到 Readiness Check 失斁哉搿:
通過 kubectl describe service rpc-server-service
也可以看到 Service 下面的 EndPoint 還是之前的那個,新的并沒有掛載上去诀艰。
總結(jié)
本文中柬甥,我們演示了如何通過 Readiness Check 來控制應(yīng)用的流量,在 Readiness Check 失敗的情況下其垄,讓流量不進(jìn)入應(yīng)用苛蒲,防止業(yè)務(wù)受損。在上面的例子中绿满,我們通過 Readiness Check 完成了兩個部分的流量的控制臂外,一個是 Readiness Check 失敗之后,SOFARPC 不會將服務(wù)的地址上報到對應(yīng)的服務(wù)注冊中心上,控制通過自動服務(wù)發(fā)現(xiàn)進(jìn)入的流量漏健,另一個方面嚎货,Kubernetes 也不會將 Pod 掛到對應(yīng)額 Service 之上,防止負(fù)載均衡器進(jìn)入的流量蔫浆。
雖然 SOFABoot 提供了 Readiness Check 的能力殖属,并且對應(yīng)的中間件也已經(jīng)實現(xiàn)了根據(jù) SOFABoot 的 Readiness Check 的結(jié)果來控制流量,但是完整的流量控制瓦盛,還需要外圍的平臺進(jìn)行配合洗显,比如負(fù)載均衡的流量就需要 Kubernetes 的 Readiness Check 的能力來一起配合才可以完成控制。
本文中所有涉及到的代碼以及 Kuberentes 的 YAML 配置文件都已經(jīng)放到了 Github 上原环,歡迎大家參考下載:https://github.com/khotyn/sofa-boot-readiness-check-demo挠唆。