240 發(fā)簡信
IP屬地:新竹
  • 同問 argmax_Dim1遗锣, argmax 是庫里的還是自己實(shí)現(xiàn)的啊货裹。

    【填坑】基于TensorFlow C++ API 的 gRPC 服務(wù)

    之前實(shí)習(xí)的時(shí)候訓(xùn)練一個(gè)給ASR文本添加大小寫和標(biāo)點(diǎn)的模型,框架用的是tensorflow r1.2(本文其實(shí)和tensorflow版本無關(guān))黄伊。模型訓(xùn)好后mentor說要轉(zhuǎn)成C...

  • Bert系列(三)——源碼解讀之Pre-train

    pre-train是遷移學(xué)習(xí)的基礎(chǔ)勿锅,雖然Google已經(jīng)發(fā)布了各種預(yù)訓(xùn)練好的模型帕膜,而且因?yàn)橘Y源消耗巨大,自己再預(yù)訓(xùn)練也不現(xiàn)實(shí)(在Google Cloud TPU v2 上訓(xùn)練...

  • 120
    Bert系列(二)——源碼解讀之模型主體

    本篇文章主要是解讀模型主體代碼modeling.py溢十。在閱讀這篇文章之前希望讀者們對bert的相關(guān)理論有一定的了解垮刹,尤其是transformer的結(jié)構(gòu)原理,網(wǎng)上的資料很多张弛,本...

  • 120
    Bert系列(四)——源碼解讀之Fine-tune

    這是我們源碼解讀的最后一個(gè)部分了早抠。fine-tune搞明白之后推斷也就沒必要再分析了钦无,反正形式都是一樣的,重要的是明白根據(jù)不同任務(wù)調(diào)整輸入格式和對loss的構(gòu)建,這兩個(gè)知識(shí)點(diǎn)...

  • Python性能優(yōu)化的20條建議

    作者:開元 1.優(yōu)化算法時(shí)間復(fù)雜度 算法的時(shí)間復(fù)雜度對程序的執(zhí)行效率影響最大馋记,在Python中可以通過選擇合適的數(shù)據(jù)結(jié)構(gòu)來優(yōu)化時(shí)間復(fù)雜度腻窒,如list和set查找某一個(gè)元素的時(shí)...

  • 120
    你是怎樣的你寝姿?

    中國人自始至終對文化和教養(yǎng)的程度很深。其實(shí)我們每個(gè)人都是一面鏡子划滋,鏡里鏡外都是自己的樣子…… 每個(gè)人會(huì)有很多兄弟姐妹饵筑,也就是衍生出了最重要的親情。親情和所有的感情一樣处坪,需要...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品