2021-03-10 Speech-Transformer項目精簡參數規(guī)模訓練

一础锐、通過修改訓練配置憨颠,進行新一輪訓練

train.py 
--train-json dump/train/deltafalse/data.json 
--valid-json dump/dev/deltafalse/data.json 
--dict data/lang_1char/train_chars.txt 
--LFR_m 7                # 疊加幀數,比如單幀輸入維度 [320,80]伍派,此時維度[320,560]
--LFR_n 6                # 跳過幀數,相當于采樣頻率除以6剩胁,降低計算量诉植,提高訓練效率
--d_input 80             # 此參數與 fbank 特征提取結果有關,默認80
--n_layers_enc 6         # encoder 個數昵观,原論文默認為6
--n_head 4               # 多頭注意力晾腔,默認為8,此處改為4
--d_k 64                 # k 向量維度 64
--d_v 64                 # v 向量維度 64
--d_model 320            # 模型維度啊犬,默認512灼擂,此處改為320
--d_inner 1280           # 全連接層(FeedForward),默認2048觉至,此處改為1280剔应,通常為4*dmodel
--dropout 0.1            # Dropout有效緩解過擬合的發(fā)生,默認為0.1       
--pe_maxlen 5000         # Positional Encoding 最大長度設置语御,和數據集語音有關 峻贮? 默認5000
--d_word_vec 320         # 詞向量維度,與d_model必須一致应闯,否則訓練報錯
--n_layers_dec 6         # decoder 個數纤控,原論文默認為6
--tgt_emb_prj_weight_sharing 1     # share decoder embedding with decoder projection,默認1
--label_smoothing 0.1    # 標簽平滑策略:降低正確分類樣本的置信度碉纺,提升模型的自適應能力 默認0.1
--epochs 30              # 數據集遍歷次數船万,默認為150刻撒,此前訓練20左右loss大幅下降,此處設置為30
--shuffle 1              # 每個epoch都重新排序一遍數據
--batch-size 16          # 批量處理數
--batch_frames 0         # 批量處理幀數耿导,此值為0声怔,batch_size生效,大于0碎节,batch_size失效
--maxlen-in 800          # 輸入語音最大長度捧搞,默認800,與數據集語音相關
--maxlen-out 150         # 輸出語音最大長度狮荔,默認150胎撇,與數據集語音相關
--num-workers 4          # 裝載batch數據時,使用的CPU核心
--k 0.2                  # 學習率變化的縮放因子殖氏,默認0.2晚树,等于1時與預熱學習率公式一致
--warmup_steps 4000      # 預熱訓練步驟默認為4000,即前4000步學習率緩慢上升至較大值雅采,然后逐漸降低爵憎,最終穩(wěn)定
--save-folder exp/train_m7_n6_in80_elayer6_head4_k64_v64_model320_inner1280_drop0.1_pe5000_emb320_dlayer6_share1_ls0.1_epoch30_shuffle1_bs16_bf0_mli800_mlo150_k0.2_warm4000 
--checkpoint 0           # 是否每個epoch都保存一次模型
--continue-from ""       # 可以接著從已訓練的epoch開始繼續(xù)訓練
--print-freq 10          # 打印步長
--visdom 0               # 是否開啟visdom可視化繪圖功能
--visdom_lr 0            # 是否將學習率開啟可視化
--visdom_epoch 0         # 是否每個epoch 均繪制可視化窗口
--visdom-id "Transformer Training"     # 可視化窗口名稱顯示
訓練集 epoch 30
開發(fā)集 epoch 30

預測之后的結果:




正確率:87% 詞錯誤率:13.7%

Args: Namespace(LFR_m=7, LFR_n=6, batch_frames=0, batch_size=16, checkpoint=0, continue_from='', d_inner=1280, d_input=80, d_k=64, d_model=320, d_v=64, d_word_vec=320, dict='data/lang_1char/train_chars.txt', dropout=0.1, epochs=30, k=0.2, label_smoothing=0.1, maxlen_in=800, maxlen_out=150, model_path='final.pth.tar', n_head=4, n_layers_dec=6, n_layers_enc=6, num_workers=4, pe_maxlen=5000, print_freq=10, save_folder='exp/train_m7_n6_in80_elayer6_head4_k64_v64_model320_inner1280_drop0.1_pe5000_emb320_dlayer6_share1_ls0.1_epoch30_shuffle1_bs16_bf0_mli800_mlo150_k0.2_warm4000', shuffle=1, tgt_emb_prj_weight_sharing=1, train_json=None, valid_json=None, visdom=0, visdom_epoch=0, visdom_id='Transformer training', visdom_lr=0, warmup_steps=4000)
Model total parameters: 17321344

模型總參數量: 17321344

二、通過修改訓練配置婚瓜,進行新一輪訓練

train.py 
--train-json dump/train/deltafalse/data.json 
--valid-json dump/dev/deltafalse/data.json 
--dict data/lang_1char/train_chars.txt 
--LFR_m 7 
--LFR_n 6 
--d_input 80 
--n_layers_enc 4             #  6 變?yōu)?4
--n_head 4               
--d_k 64 
--d_v 64 
--d_model 256                # 320 變?yōu)?256
--d_inner 1024               # 1280 變?yōu)?1024
--dropout 0.1 
--pe_maxlen 5000 
--d_word_vec 256             # 320 變?yōu)?256
--n_layers_dec 4             # 6 變?yōu)?4
--tgt_emb_prj_weight_sharing 1 
--label_smoothing 0.1 
--epochs 30 
--shuffle 1 
--batch-size 16 
--batch_frames 0 
--maxlen-in 800 
--maxlen-out 150 
--num-workers 4
--k 1                         # 0.2 變?yōu)?1
--warmup_steps 4000 
--save-folder exp/train_m7_n6_in80_elayer4_head4_k64_v64_model256_inner1024_drop0.1_pe5000_emb256_dlayer4_share1_ls0.1_epoch30_shuffle1_bs16_bf0_mli800_mlo150_k1_warm4000 
--checkpoint 0 
--continue-from "" 
--print-freq 10 
--visdom 0 
--visdom_lr 0 
--visdom_epoch 0 
--visdom-id "Transformer Training" 
訓練集 epoch 30

開發(fā)集 epoch 30

預測之后的結果:





識別錯誤太多

錯誤率達97.8%

Args: Namespace(LFR_m=7, LFR_n=6, batch_frames=0, batch_size=16, checkpoint=0, continue_from='', d_inner=1024, d_input=80, d_k=64, d_model=256, d_v=64, d_word_vec=256, dict='data/lang_1char/train_chars.txt', dropout=0.1, epochs=30, k=1.0, label_smoothing=0.1, maxlen_in=800, maxlen_out=150, model_path='final.pth.tar', n_head=4, n_layers_dec=4, n_layers_enc=4, num_workers=4, pe_maxlen=5000, print_freq=10, save_folder='exp/train_m7_n6_in80_elayer4_head4_k64_v64_model256_inner1024_drop0.1_pe5000_emb256_dlayer4_share1_ls0.1_epoch30_shuffle1_bs16_bf0_mli800_mlo150_k1_warm4000', shuffle=1, tgt_emb_prj_weight_sharing=1, train_json=None, valid_json=None, visdom=0, visdom_epoch=0, visdom_id='Transformer training', visdom_lr=0, warmup_steps=4000)
Model total parameters: 8600576

模型總參數量 8600576

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯(lián)系作者
  • 序言:七十年代末宝鼓,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子巴刻,更是在濱河造成了極大的恐慌愚铡,老刑警劉巖,帶你破解...
    沈念sama閱讀 216,744評論 6 502
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件胡陪,死亡現(xiàn)場離奇詭異沥寥,居然都是意外死亡,警方通過查閱死者的電腦和手機柠座,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,505評論 3 392
  • 文/潘曉璐 我一進店門邑雅,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人妈经,你說我怎么就攤上這事淮野。” “怎么了吹泡?”我有些...
    開封第一講書人閱讀 163,105評論 0 353
  • 文/不壞的土叔 我叫張陵录煤,是天一觀的道長。 經常有香客問我荞胡,道長,這世上最難降的妖魔是什么了嚎? 我笑而不...
    開封第一講書人閱讀 58,242評論 1 292
  • 正文 為了忘掉前任泪漂,我火速辦了婚禮廊营,結果婚禮上,老公的妹妹穿的比我還像新娘萝勤。我一直安慰自己露筒,他們只是感情好,可當我...
    茶點故事閱讀 67,269評論 6 389
  • 文/花漫 我一把揭開白布敌卓。 她就那樣靜靜地躺著慎式,像睡著了一般。 火紅的嫁衣襯著肌膚如雪趟径。 梳的紋絲不亂的頭發(fā)上瘪吏,一...
    開封第一講書人閱讀 51,215評論 1 299
  • 那天,我揣著相機與錄音蜗巧,去河邊找鬼掌眠。 笑死,一個胖子當著我的面吹牛幕屹,可吹牛的內容都是我干的蓝丙。 我是一名探鬼主播,決...
    沈念sama閱讀 40,096評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼望拖,長吁一口氣:“原來是場噩夢啊……” “哼渺尘!你這毒婦竟也來了?” 一聲冷哼從身側響起说敏,我...
    開封第一講書人閱讀 38,939評論 0 274
  • 序言:老撾萬榮一對情侶失蹤鸥跟,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后像云,有當地人在樹林里發(fā)現(xiàn)了一具尸體锌雀,經...
    沈念sama閱讀 45,354評論 1 311
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 37,573評論 2 333
  • 正文 我和宋清朗相戀三年迅诬,在試婚紗的時候發(fā)現(xiàn)自己被綠了腋逆。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 39,745評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡侈贷,死狀恐怖惩歉,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情俏蛮,我是刑警寧澤撑蚌,帶...
    沈念sama閱讀 35,448評論 5 344
  • 正文 年R本政府宣布,位于F島的核電站搏屑,受9級特大地震影響争涌,放射性物質發(fā)生泄漏。R本人自食惡果不足惜辣恋,卻給世界環(huán)境...
    茶點故事閱讀 41,048評論 3 327
  • 文/蒙蒙 一亮垫、第九天 我趴在偏房一處隱蔽的房頂上張望模软。 院中可真熱鬧,春花似錦饮潦、人聲如沸燃异。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,683評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽回俐。三九已至,卻和暖如春稀并,著一層夾襖步出監(jiān)牢的瞬間仅颇,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 32,838評論 1 269
  • 我被黑心中介騙來泰國打工稻轨, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留灵莲,地道東北人。 一個月前我還...
    沈念sama閱讀 47,776評論 2 369
  • 正文 我出身青樓殴俱,卻偏偏與公主長得像政冻,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子线欲,可洞房花燭夜當晚...
    茶點故事閱讀 44,652評論 2 354

推薦閱讀更多精彩內容