這個在解碼的時候沸版,是不是沒有用ctc進行聯(lián)合解碼??
減少全連接神經元個數(shù)卓起,加入CTC損失訓練將d_ff由2048 減小到 1024 ctc_weight 設置為0.1 模型大小為 51.4M 參數(shù)個數(shù)為13929234 訓練到epoch.20 測試結果: 訓練到ep...
這個在解碼的時候沸版,是不是沒有用ctc進行聯(lián)合解碼??
減少全連接神經元個數(shù)卓起,加入CTC損失訓練將d_ff由2048 減小到 1024 ctc_weight 設置為0.1 模型大小為 51.4M 參數(shù)個數(shù)為13929234 訓練到epoch.20 測試結果: 訓練到ep...
transformer 視頻原作者:https://www.bilibili.com/video/BV1Di4y1c7Zm?p=4&spm_id_from=pageDrive...