240 發(fā)簡(jiǎn)信
IP屬地:廣東
  • tf2.0 tfserving

    2018年寫過(guò)tf保存為pb使用tfserving褐桌,現(xiàn)在發(fā)現(xiàn)tf2.0環(huán)境運(yùn)行不了了,于是重新研究下官方例子[https://github.co...

  • Resize,w 360,h 240
    【編程題】二分查找及其變種

    規(guī)律:第一個(gè)返回left 最后一個(gè)返回right象迎,第一個(gè)題目有等號(hào)比較就有等號(hào)荧嵌,最后一個(gè)題目有等號(hào)比較就沒(méi)等號(hào) 理解:因?yàn)樽詈蟮奶鰲l件是sta...

  • Resize,w 360,h 240
    百度LAC2.0試用

    最近看到推送,百度的開源詞法LAC2.0發(fā)布了砾淌,可增量訓(xùn)練適應(yīng)自己的數(shù)據(jù), 趕緊來(lái)試驗(yàn)下啦撮。git 模型是兩層的BI-GRU+CRF,隱藏層維度2...

  • Resize,w 360,h 240
    ner論文筆記:Better Modeling of Incomplete Annotations for Named Entity Recognition

    NLPCC2020的任務(wù)三 考慮噪音標(biāo)注以及不全標(biāo)注信息的情況下來(lái)構(gòu)造信息抽取系統(tǒng)汪厨。當(dāng)給定實(shí)體類別赃春,實(shí)體的一個(gè)列表,還有大量未標(biāo)注語(yǔ)料時(shí)劫乱,我們?nèi)?..

  • Resize,w 360,h 240
    模型壓縮(四):調(diào)整架構(gòu)設(shè)計(jì)

    輕量化網(wǎng)絡(luò)织中,在實(shí)際上最有效。 全連接網(wǎng)絡(luò)里衷戈,多加一層狭吼,參數(shù)變少,相當(dāng)于中間壓縮了殖妇。 每個(gè)通道有個(gè)核刁笙,對(duì)應(yīng)卷積,再使用1×1卷積核,融合不同通道的...

  • Resize,w 360,h 240
    模型壓縮(三):量化

    用更少的bit來(lái)存參數(shù)疲吸,(例如32個(gè)bit改成16個(gè)bit) 把參數(shù)分群座每,用更少的bit來(lái)代表參數(shù) 通過(guò)霍夫曼編碼,把出現(xiàn)頻率高的值用更少的bi...

  • Resize,w 360,h 240
    模型壓縮(二):知識(shí)蒸餾

    先訓(xùn)練一個(gè)大模型摘悴,再訓(xùn)練一個(gè)小模型學(xué)習(xí)大模型的輸出尺栖。 大模型不僅學(xué)到了類別,還學(xué)到了類別之間相似的東西烦租,比真實(shí)label更多信息延赌,不知告訴這個(gè)圖...

  • Resize,w 360,h 240
    模型壓縮(一):剪枝

    李宏毅 network compression https://www.youtube.com/watch?v=dPp8rCAnU_A 因?yàn)楝F(xiàn)在...

  • Resize,w 360,h 240
    Invalid argument: Matrix size-incompatible: In[....] [[{{node loss/crf_1_loss/MatMul_1}}]] [[metr...

    記一個(gè)找了一整天的bug。keras-contrib 里面的crf loss 因?yàn)镃RF層定義的時(shí)候 self.crf = CRF(self.n...

個(gè)人介紹
主營(yíng)業(yè)務(wù)nlp
亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品