這個(gè)在解碼的時(shí)候撤防,是不是沒(méi)有用ctc進(jìn)行聯(lián)合解碼??
減少全連接神經(jīng)元個(gè)數(shù)虽风,加入CTC損失訓(xùn)練將d_ff由2048 減小到 1024 ctc_weight 設(shè)置為0.1 模型大小為 51.4M 參數(shù)個(gè)數(shù)為13929234 訓(xùn)練到epoch.20 測(cè)試結(jié)果: 訓(xùn)練到ep...
這個(gè)在解碼的時(shí)候撤防,是不是沒(méi)有用ctc進(jìn)行聯(lián)合解碼??
減少全連接神經(jīng)元個(gè)數(shù)虽风,加入CTC損失訓(xùn)練將d_ff由2048 減小到 1024 ctc_weight 設(shè)置為0.1 模型大小為 51.4M 參數(shù)個(gè)數(shù)為13929234 訓(xùn)練到epoch.20 測(cè)試結(jié)果: 訓(xùn)練到ep...
transformer 視頻原作者:https://www.bilibili.com/video/BV1Di4y1c7Zm?p=4&spm_id_from=pageDrive...