keras 模型部署——TensorFlow Serving/Docker

今天筆者想記錄一下深度學(xué)習(xí)模型的部署浑测,不知道大家研究過(guò)沒(méi)有募壕,tensorflow模型有三種保存方式:

  • 訓(xùn)練時(shí)我們會(huì)一般會(huì)將模型保存成:checkpoint文件
  • 為了方便python麦轰,C++或者其他語(yǔ)言部署你的模型坦报,你可以將模型保存成一個(gè)既包含網(wǎng)絡(luò)結(jié)構(gòu)又包含權(quán)重參數(shù)的:PB文件
  • 為了方便使用TensorFlow Serving 部署你的模型盟步,你可以將模型保存成:Saved_model文件

筆者是keras(tensorflow )的深度用戶,經(jīng)常把模型保存成HDF5格式他匪。那么問(wèn)題來(lái)了菇存,如何把keras的模型轉(zhuǎn)化成PB文件 或者 Saved_model文件供生成部署使用。今天筆者就是來(lái)介紹一下如何將Keras的模型保存成PB文件 或者 Saved_model文件邦蜜。

定義BERT二分類模型

下方函數(shù)定義的是一個(gè)標(biāo)準(zhǔn)的BERT做文本二分類的圖結(jié)構(gòu)依鸥。

from keras.models import Model
from keras.layers import *
from keras import backend as K
import tensorflow as tf
from keras_bert import get_model,compile_model

def load_bert_model_weight(bert_model_path):
    
    b_model = get_model(token_num=21128,)
    compile_model(b_model)

    bert_model = Model(
            inputs = b_model.input[:2],
            outputs = b_model.get_layer('Encoder-12-FeedForward-Norm').output
    )
    x1_in = Input(shape=(None,))
    x2_in = Input(shape=(None,))

    x = bert_model([x1_in, x2_in])
    x = Lambda(lambda x: x[:, 0])(x)## 取[CLS]向量
    p = Dense(2, activation='softmax')(x)

    model = Model([x1_in, x2_in], p)
#     model.compile(
#         loss='binary_crossentropy',
#         optimizer=Adam(1e-5), # 用足夠小的學(xué)習(xí)率
#         metrics=['accuracy']
#     )
    model.load_weights(bert_model_path)
    return model
model_path = "/opt/developer/wp/wzcq/model/bert1014v1_weights.hf"
model = load_bert_model_weight(model_path)

具體結(jié)構(gòu)如下圖所示其中

  • model_2 就是含12層的transformer的bert模型,
  • 之后接一個(gè)keras中經(jīng)常使用的Lambda層用于抽取 bert最后一層出來(lái)的[CLS]位置對(duì)應(yīng)特征向量悼沈,
  • 將[CLS]的特征向量輸入給一個(gè)全連接層做而分類贱迟。

由于筆者之前已經(jīng)訓(xùn)練好了一個(gè)人模型,這里我直接使用load_bert_model_weight函數(shù)將模型以及模型參數(shù)加載進(jìn)內(nèi)存絮供。


BERT二分類

將keras模型轉(zhuǎn)化為PB文件

接下來(lái)可以使用這個(gè)函數(shù)將上市的model連模型圖結(jié)構(gòu)代參數(shù)一起保存下來(lái)衣吠,然后通過(guò)tensoflow 為python,java壤靶,c++語(yǔ)言等提供的模型調(diào)用接口使用起來(lái)了蒸播。

def freeze_session(session, keep_var_names=None, output_names=None, clear_devices=True):
    """
    Freezes the state of a session into a pruned computation graph.

    Creates a new computation graph where variable nodes are replaced by
    constants taking their current value in the session. The new graph will be
    pruned so subgraphs that are not necessary to compute the requested
    outputs are removed.
    @param session The TensorFlow session to be frozen.
    @param keep_var_names A list of variable names that should not be frozen,
                          or None to freeze all the variables in the graph.
    @param output_names Names of the relevant graph outputs.
    @param clear_devices Remove the device directives from the graph for better portability.
    @return The frozen graph definition.
    """
    graph = session.graph
    with graph.as_default():
        freeze_var_names = list(set(v.op.name for v in tf.global_variables()).difference(keep_var_names or []))
        output_names = output_names or []
        output_names += [v.op.name for v in tf.global_variables()]
        input_graph_def = graph.as_graph_def()
        if clear_devices:
            for node in input_graph_def.node:
                node.device = ""
        frozen_graph = tf.graph_util.convert_variables_to_constants(
            session, input_graph_def, output_names, freeze_var_names)
        return frozen_graph


def save_keras_model_to_pb(keras_model , dic_pb=None,  file_pb=None):
    """
    save keras model to tf *.pb file 
    
    """
    frozen_graph = freeze_session(K.get_session(),output_names=[out.op.name for out in keras_model.outputs])
    tf.train.write_graph(frozen_graph, dic_pb, file_pb, as_text=False)
    return 



save_keras_model_to_pb(model,"py","bert_model.pb")

將keras模型轉(zhuǎn)化為Saved_model文件

而接下來(lái)的部分是如何將model制作成Saved_model文件,這樣你就可以使用TensorFlow Serving 部署你的模型萍肆。這里筆者介紹一下使用TensorFlow Serving 部署你的模型的一些優(yōu)勢(shì)。

  • 支持模型版本控制和回滾
  • 支持并發(fā)胀屿,實(shí)現(xiàn)高吞吐量
  • 開(kāi)箱即用塘揣,并且可定制化
  • 支持多模型服務(wù)
  • 支持批處理
  • 支持熱更新
  • 支持分布式模型
  • 易于使用的inference api:為gRPC expose port 8500,為REST API expose port 8501
import tensorflow as tf
import os
from tensorflow.keras.losses import categorical_crossentropy
from tensorflow.keras.optimizers import Adadelta

def export_model(model,
                 export_model_dir,
                 model_version
                 ):
    """
    :param export_model_dir: type string, save dir for exported model    url
    :param model_version: type int best
    :return:no return
    """
    with tf.get_default_graph().as_default():
        # prediction_signature
        tensor_info_input_0 = tf.saved_model.utils.build_tensor_info(model.input[0])
        tensor_info_input_1 = tf.saved_model.utils.build_tensor_info(model.input[1])
        tensor_info_output = tf.saved_model.utils.build_tensor_info(model.output)
        print(model.input)
        print(model.output.shape, '**', tensor_info_output)
        prediction_signature = (
            tf.saved_model.signature_def_utils.build_signature_def(
                inputs ={'input_0': tensor_info_input_0,'input_1': tensor_info_input_1}, # Tensorflow.TensorInfo
                outputs={'result': tensor_info_output},
                #method_name=tf.saved_model.signature_constants.PREDICT_METHOD_NAME)
                 method_name= "tensorflow/serving/predict")
               
        )
        print('step1 => prediction_signature created successfully')
        # set-up a builder
        os.mkdir(export_model_dir)
        export_path_base = export_model_dir
        export_path = os.path.join(
            tf.compat.as_bytes(export_path_base),
            tf.compat.as_bytes(str(model_version)))
        builder = tf.saved_model.builder.SavedModelBuilder(export_path)
        builder.add_meta_graph_and_variables(
            # tags:SERVING,TRAINING,EVAL,GPU,TPU
            sess=K.get_session(),
            tags=[tf.saved_model.tag_constants.SERVING],
            signature_def_map={
                'predict':prediction_signature,
                tf.saved_model.signature_constants.DEFAULT_SERVING_SIGNATURE_DEF_KEY: prediction_signature,

            },
            )
        print('step2 => Export path(%s) ready to export trained model' % export_path, '\n starting to export model...')
        #builder.save(as_text=True)
        builder.save()
        print('Done exporting!')

export_model(model,"bert",1)

上述過(guò)程需要注意的一個(gè)人地方是模型API輸入和輸出的定義:
這個(gè)部分要按照模型的輸入輸出定義好宿崭。由于我的bert模型
定義如下:

  • 輸入token_id和segment_id兩部分輸入亲铡,
  • 輸出是dense層的輸出
    所以我的API定義過(guò)程如下
###輸入tensor  
tensor_info_input_0 = tf.saved_model.utils.build_tensor_info(model.input[0])
tensor_info_input_1 = tf.saved_model.utils.build_tensor_info(model.input[1])
###輸出tensor
tensor_info_output = tf.saved_model.utils.build_tensor_info(model.output)
### 定義api
prediction_signature = (
     tf.saved_model.signature_def_utils.build_signature_def(
            inputs ={'input_0': tensor_info_input_0,'input_1': tensor_info_input_1}, # Tensorflow.TensorInfo
            outputs={'result': tensor_info_output},
            #method_name=tf.saved_model.signature_constants.PREDICT_METHOD_NAME)
            method_name= "tensorflow/serving/predict")
               
        )

下圖是腳本執(zhí)行輸出:


res

采用上述代碼將model 保持成Saved_model 格式后,模型文件結(jié)構(gòu)如下圖所示:包含版本,模型pd文件奖蔓,參數(shù)的文件夾赞草。


Saved_model

TensorFlow Serving 之使用Docker 部署Saved_model

使用docker部署模型的好處在于,避免了與繁瑣的環(huán)境配置打交道吆鹤。使用docker厨疙,不需要手動(dòng)安裝Python,更不需要安裝numpy疑务、tensorflow各種包沾凄。google 已經(jīng)幫你制作好了tensorflow/serving 鏡像,GPU版和CPU版都有知允,你只要要使用docker pull 命令將鏡像拉取到本地就可以了

 run -p 8501:8501 --mount type=bind,source=/opt/developer/wp/learn/bert,target=/models/bert -e MODEL_NAME=bert --name bert -t tensorflow/serving

使用上面的docker命令啟動(dòng)TF Server :
(1)-p 8501:8501是端口映射撒蟀,是將容器的8501端口映射到宿主機(jī)的8501端口,后面預(yù)測(cè)的時(shí)候使用該端口温鸽;
(2)-e MODEL_NAME=bert 設(shè)置模型名稱保屯;
(3)--mount type=bind,source=/opt/developer/wp/learn/bert, target=/models/bert 是將宿主機(jī)的路徑/opt/developer/wp/learn/bert 掛載到容器的/models/bert 下。
/opt/developer/wp/learn/bert是通過(guò)上述py腳本生成的Saved_model的路徑涤垫。容器內(nèi)部會(huì)根據(jù)綁定的路徑讀取模型文件姑尺;

使用下方命令行查看服務(wù)狀態(tài)

 curl http://localhost:8501/v1/models/bert 
image.png

請(qǐng)求服務(wù)

加下來(lái)使用request庫(kù)嘗試請(qǐng)求一下我們的bert服務(wù)。
這里需要注意的是數(shù)據(jù)預(yù)處理的方式要和你做訓(xùn)練時(shí)的方式一樣雹姊。

sent = "來(lái)玩英雄聯(lián)盟"
tokenid_train =  tokenizer.encode(sent,max_len=200)[0] 
sen_id_train =   tokenizer.encode(sent,max_len=200)[1]
import requests
SERVER_URL = "http://192.168.77.40:8501/v1/models/bert:predict"
predict_request='{"signature_name": "predict", "instances":[{"input_0":%s,"input_1":%s}] }' %(tokenid_train,sen_id_train)
response = requests.post(SERVER_URL, data=predict_request)
response.content

返回結(jié)果:{ "predictions": [[8.70507502e-05, 0.999913]]}
當(dāng)然你也可以使用gRPC 的API在8500端口訪問(wèn)你的服務(wù)股缸。

結(jié)語(yǔ)

今天筆者只是簡(jiǎn)單介紹了一下,如何將模型轉(zhuǎn)換為生產(chǎn)環(huán)境能用與部署的格式吱雏,以及使用docker部署模型的方式敦姻,其實(shí)模型訓(xùn)練出來(lái)了,達(dá)到了很好的效果歧杏,接下來(lái)讓更多的人能夠方便的使用到它們也是我們算法工程師所期望的事情镰惦,所以,模型的部署還是很有意義的一件事情犬绒。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末旺入,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子凯力,更是在濱河造成了極大的恐慌茵瘾,老刑警劉巖,帶你破解...
    沈念sama閱讀 216,651評(píng)論 6 501
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件咐鹤,死亡現(xiàn)場(chǎng)離奇詭異拗秘,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī)祈惶,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,468評(píng)論 3 392
  • 文/潘曉璐 我一進(jìn)店門雕旨,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)扮匠,“玉大人,你說(shuō)我怎么就攤上這事凡涩“羲眩” “怎么了?”我有些...
    開(kāi)封第一講書人閱讀 162,931評(píng)論 0 353
  • 文/不壞的土叔 我叫張陵活箕,是天一觀的道長(zhǎng)力麸。 經(jīng)常有香客問(wèn)我,道長(zhǎng)讹蘑,這世上最難降的妖魔是什么末盔? 我笑而不...
    開(kāi)封第一講書人閱讀 58,218評(píng)論 1 292
  • 正文 為了忘掉前任,我火速辦了婚禮座慰,結(jié)果婚禮上陨舱,老公的妹妹穿的比我還像新娘。我一直安慰自己版仔,他們只是感情好游盲,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,234評(píng)論 6 388
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著蛮粮,像睡著了一般益缎。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上然想,一...
    開(kāi)封第一講書人閱讀 51,198評(píng)論 1 299
  • 那天莺奔,我揣著相機(jī)與錄音,去河邊找鬼变泄。 笑死令哟,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的妨蛹。 我是一名探鬼主播屏富,決...
    沈念sama閱讀 40,084評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼蛙卤!你這毒婦竟也來(lái)了狠半?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書人閱讀 38,926評(píng)論 0 274
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤颤难,失蹤者是張志新(化名)和其女友劉穎神年,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體行嗤,經(jīng)...
    沈念sama閱讀 45,341評(píng)論 1 311
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡瘤袖,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,563評(píng)論 2 333
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了昂验。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片捂敌。...
    茶點(diǎn)故事閱讀 39,731評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖既琴,靈堂內(nèi)的尸體忽然破棺而出占婉,到底是詐尸還是另有隱情,我是刑警寧澤甫恩,帶...
    沈念sama閱讀 35,430評(píng)論 5 343
  • 正文 年R本政府宣布逆济,位于F島的核電站,受9級(jí)特大地震影響磺箕,放射性物質(zhì)發(fā)生泄漏奖慌。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,036評(píng)論 3 326
  • 文/蒙蒙 一松靡、第九天 我趴在偏房一處隱蔽的房頂上張望简僧。 院中可真熱鬧,春花似錦雕欺、人聲如沸岛马。這莊子的主人今日做“春日...
    開(kāi)封第一講書人閱讀 31,676評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)啦逆。三九已至,卻和暖如春笛洛,著一層夾襖步出監(jiān)牢的瞬間夏志,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書人閱讀 32,829評(píng)論 1 269
  • 我被黑心中介騙來(lái)泰國(guó)打工苛让, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留沟蔑,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 47,743評(píng)論 2 368
  • 正文 我出身青樓蝌诡,卻偏偏與公主長(zhǎng)得像溉贿,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子浦旱,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,629評(píng)論 2 354

推薦閱讀更多精彩內(nèi)容