Tensorflow中的seq2seq

話不多說先上圖

NMT中的seq2seq
加入attention

基本的seq2seq模型:
outputs, states = basic_rnn_seq2seq(encoder_inputs, decoder_inputs, cell)
其中encoder_inputs是編碼器的輸入,decoder_inputs是解碼器的輸入

在模型中采用feed_previous參數來判斷是否采用解碼器輸入還是前一刻的輸出作為解碼器輸入痹兜。通常在訓練中采用解碼器輸入穆咐,預測中采用前一刻的輸出。

output_projection:
在decoder中會用到的參數。如果不指定对湃,模型的輸出是[batch_size, num_decoder_symbols]崖叫。但當num_decoder_symbols很大時,模型會采用一個較小的tensor[batch_size, num_samples]計算loss function(此時采用sampled softmax loss function)拍柒,隨后通過output_projection映射到原先的tensor心傀。

bucket:
變長seq2seq中所采用的機制,通過將inputs和targets放入不同長度的桶中避免了對每一種長度組合都要新建一個graph拆讯。
在每次采用SGD更新模型參數時脂男,會根據概率隨機地從所有buckets中選擇一個,并從中隨機選取batch_size個訓練樣例往果,并對當前sub-graph中的參數進行優(yōu)化疆液,每個sub-graph之間權值共享一铅。

train_bucket_sizes = [len(train_data.inputs[b]) 
                      for b in xrange(len(BUCKETS))]
train_total_size = float(sum(train_bucket_sizes))
train_buckets_scale = [sum(train_bucket_sizes[:i + 1]) / train_total_size
                       for i in xrange(len(train_bucket_sizes))]

foreach batch:
    random_number_01 = np.random.random_sample()
    #根據數據概率分布函數隨機選取bucket
    bucket_id = min([i for i in xrange(len(train_buckets_scale))
                     if train_buckets_scale[i] > random_number_01]) 

    def seq2seq_f(encoder_inputs, 
                  decoder_inputs, 
                  cell,
                  num_encoder_symbols,
                  num_decoder_symbols,
                  embedding_size,
                  output_projection,
                  do_decode):
        return tf.contrib.legacy_seq2seq.embedding_attention_seq2seq(
          encoder_inputs,
          decoder_inputs,
          cell,
          num_encoder_symbols,
          num_decoder_symbols,
          embedding_size,
          output_projection=output_projection,
          feed_previous=do_decode)

tf.contrib.legacy_seq2seq.model_with_buckets(
          encoder_inputs,
          decoder_inputs,
          targets,
          target_weights,
          buckets,
          lambda x, y: seq2seq_f(x, y, 
                                 cell, 
                                 num_encoder_symbols,
                                 num_decoder_symbols,
                                 embedding_size,
                                 output_projection,
                                 False),
          softmax_loss_function=softmax_loss_function)
最后編輯于
?著作權歸作者所有,轉載或內容合作請聯(lián)系作者
  • 序言:七十年代末陕贮,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子潘飘,更是在濱河造成了極大的恐慌肮之,老刑警劉巖,帶你破解...
    沈念sama閱讀 218,284評論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件卜录,死亡現(xiàn)場離奇詭異戈擒,居然都是意外死亡,警方通過查閱死者的電腦和手機艰毒,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,115評論 3 395
  • 文/潘曉璐 我一進店門筐高,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人丑瞧,你說我怎么就攤上這事柑土。” “怎么了绊汹?”我有些...
    開封第一講書人閱讀 164,614評論 0 354
  • 文/不壞的土叔 我叫張陵稽屏,是天一觀的道長。 經常有香客問我西乖,道長狐榔,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,671評論 1 293
  • 正文 為了忘掉前任获雕,我火速辦了婚禮薄腻,結果婚禮上,老公的妹妹穿的比我還像新娘届案。我一直安慰自己被廓,他們只是感情好,可當我...
    茶點故事閱讀 67,699評論 6 392
  • 文/花漫 我一把揭開白布萝玷。 她就那樣靜靜地躺著嫁乘,像睡著了一般昆婿。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上蜓斧,一...
    開封第一講書人閱讀 51,562評論 1 305
  • 那天仓蛆,我揣著相機與錄音,去河邊找鬼挎春。 笑死看疙,一個胖子當著我的面吹牛,可吹牛的內容都是我干的直奋。 我是一名探鬼主播能庆,決...
    沈念sama閱讀 40,309評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼脚线!你這毒婦竟也來了搁胆?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 39,223評論 0 276
  • 序言:老撾萬榮一對情侶失蹤邮绿,失蹤者是張志新(化名)和其女友劉穎渠旁,沒想到半個月后,有當地人在樹林里發(fā)現(xiàn)了一具尸體船逮,經...
    沈念sama閱讀 45,668評論 1 314
  • 正文 獨居荒郊野嶺守林人離奇死亡顾腊,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 37,859評論 3 336
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了挖胃。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片杂靶。...
    茶點故事閱讀 39,981評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖酱鸭,靈堂內的尸體忽然破棺而出吗垮,到底是詐尸還是另有隱情,我是刑警寧澤凛辣,帶...
    沈念sama閱讀 35,705評論 5 347
  • 正文 年R本政府宣布抱既,位于F島的核電站,受9級特大地震影響扁誓,放射性物質發(fā)生泄漏防泵。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 41,310評論 3 330
  • 文/蒙蒙 一蝗敢、第九天 我趴在偏房一處隱蔽的房頂上張望捷泞。 院中可真熱鬧,春花似錦寿谴、人聲如沸锁右。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,904評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽咏瑟。三九已至拂到,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間码泞,已是汗流浹背兄旬。 一陣腳步聲響...
    開封第一講書人閱讀 33,023評論 1 270
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留余寥,地道東北人领铐。 一個月前我還...
    沈念sama閱讀 48,146評論 3 370
  • 正文 我出身青樓,卻偏偏與公主長得像宋舷,于是被迫代替她去往敵國和親绪撵。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 44,933評論 2 355

推薦閱讀更多精彩內容

  • 近日祝蝠,谷歌官方在 Github開放了一份神經機器翻譯教程音诈,該教程從基本概念實現(xiàn)開始,首先搭建了一個簡單的NMT模型...
    MiracleJQ閱讀 6,374評論 1 11
  • 作者 | 武維AI前線出品| ID:ai-front 前言 自然語言處理(簡稱NLP)续膳,是研究計算機處理人類語言的...
    AI前線閱讀 2,572評論 0 8
  • 動機 其實差不多半年之前就想吐槽Tensorflow的seq2seq了(后面博主去干了些別的事情)改艇,官方的代碼已經...
    Cer_ml閱讀 18,467評論 6 27
  • 1收班, 我們小時候坟岔,如果要吃,要玩摔桦,而父母不能及時滿足社付,我們就會哭鬧不止。當我們更小的時候邻耕,比方在襁褓之中鸥咖,我們只要...
    石小柴閱讀 418評論 0 2
  • 打開微信跳出一條信息,“亞文和李琴修成正果”兄世。 從大學第一次在輪滑社見面啼辣,這個單純、執(zhí)著的大男孩御滩,就給我留下了深刻...
    劉大肚閱讀 173評論 0 0