寫這篇博客的時(shí)候正好在和某公司做一個(gè)語音情感識(shí)別相關(guān)的項(xiàng)目,所以距離上次更新微博也有好久了,但還是按照之前設(shè)定的計(jì)劃把這塊內(nèi)容梳理下。主要是Fo...
最后一關(guān): Encoder:多層雙向lstm Attention機(jī)制 decoder:動(dòng)態(tài)實(shí)現(xiàn)bi-directional_dynamic_rn...
實(shí)現(xiàn)多層雙向的dynamic_lstm+beam_search 基于tensorflow1.4 Seq2seq的實(shí)現(xiàn) encoder使用的兩層雙...
實(shí)現(xiàn)beam_search部分 基于tensorflow1.4 Seq2seq的實(shí)現(xiàn) 1.使用seq2seq庫實(shí)現(xiàn)seq2seq模型 1. 計(jì)算...
實(shí)現(xiàn)雙向的dynamic_lstm+beam_search 基于tensorflow1.4 Seq2seq的實(shí)現(xiàn) encoder使用的是雙向的L...
實(shí)現(xiàn)softmax_loss_function部分 基于tensorflow1.4 Seq2seq的實(shí)現(xiàn) 1.使用seq2seq庫實(shí)現(xiàn)seq2s...
這個(gè)系列網(wǎng)上的教程實(shí)在太多,所以我準(zhǔn)備采用代碼和理論相結(jié)合的方式粪糙,詳細(xì)代碼請(qǐng)點(diǎn)擊我的github,基于python3.6和tensorflow1...
前面兩篇分別梳理了下BERT的原理和BERT的訓(xùn)練,接著前面的內(nèi)容融求,梳理下BERT是如何在下游任務(wù)上運(yùn)用的。 原理就是上面這個(gè)圖了算撮。四種任務(wù)...
Google開源的BERT的確很良心生宛,代碼寫得非常好,是一個(gè)不錯(cuò)的學(xué)習(xí)案例肮柜,這里我從實(shí)戰(zhàn)的角度從預(yù)訓(xùn)練到下游任務(wù)實(shí)戰(zhàn)做一個(gè)全面的梳理陷舅。原理部分的...