RNN及其在NLP中的應(yīng)用

神經(jīng)網(wǎng)絡(luò)基本理論

人工神經(jīng)網(wǎng)絡(luò)本質(zhì)是用機(jī)器函數(shù)擬合的過程(輸入→擬合函數(shù)→輸出)模擬人腦學(xué)習(xí)的過程(現(xiàn)象→內(nèi)在規(guī)律→知識(shí)),其基本結(jié)構(gòu)如下圖:

圖1 神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)
其具有如下特點(diǎn):

?神經(jīng)元及其連接
?輸入層陪汽、輸出層和隱藏層
?輸入、輸出層各一刽虹,隱藏層大于1時(shí)為深度神經(jīng)網(wǎng)絡(luò)
?輸入輸出節(jié)點(diǎn)數(shù)固定
?信息在層間的傳輸由連接強(qiáng)度決定
?連接強(qiáng)度隨訓(xùn)練而改變
具體到神經(jīng)單元之間的連接,同樣是模擬神經(jīng)元:

圖2 神經(jīng)單元信息傳遞

RNN與LSTM

NLP中常將中文的分詞問題轉(zhuǎn)換為序列標(biāo)注問題呢诬。例如用BMES對(duì)‘小明’進(jìn)行標(biāo)注
小=[1,0] label=[1,0,0,0]
明=[0,1] label=[0,0,1,0]

基本的神經(jīng)網(wǎng)絡(luò)無法考慮上文信息(最多能考慮固定長(zhǎng)度的相鄰信息)涌哲,由于訓(xùn)練語料中出現(xiàn)大量明天、明白尚镰、明暗等詞阀圾,所以導(dǎo)致明.label=[1,0,0,0]×

如果現(xiàn)在通過某種方式告訴神經(jīng)網(wǎng)絡(luò)‘明’的上下文信息,那么:
小明狗唉、小明初烘、小明、小明→明.label=[0,0,1,0]√

上面提到的某種方式就是RNN分俯。

圖3 RNN網(wǎng)絡(luò)結(jié)構(gòu)

RNN通過連接每次輸入的隱藏層節(jié)點(diǎn)實(shí)現(xiàn)單向傳遞過去信息的效果肾筐,所有輸入共享參數(shù)矩陣。在有時(shí)間特征和序列特征的數(shù)據(jù)處理中經(jīng)常使用RNN且能得到更好的效果缸剪。

圖4 RNN結(jié)構(gòu)展開示意圖

然而基本的RNN本身存在設(shè)計(jì)缺陷吗铐。若只看圖3藍(lán)色箭頭線的、隱藏狀態(tài)的傳遞過程杏节,不考慮非線性部分唬渗,那么就會(huì)得到一個(gè)簡(jiǎn)化的式子(1):
(1) ht= Whh· ht-1
?如果將起始時(shí)刻的隱藏狀態(tài)信息h0向第t時(shí)刻傳遞典阵,會(huì)得到式子(2)
(2) ht= (Whh)t· h0
?Whh會(huì)被乘以多次,若允許矩陣Whh進(jìn)行特征分解
(3) Whh = Q·?·QT
?式子(2)會(huì)變成(4)
(4) ht= Q·?t·QT·h0
當(dāng)特征值小于1時(shí)镊逝,不斷相乘的結(jié)果是特征值的t次方向0衰減壮啊;
當(dāng)特征值大于1時(shí),不斷相乘的結(jié)果是特征值的t次方向∞擴(kuò)增蹋半。這時(shí)想要傳遞的h0中的信息會(huì)被掩蓋掉他巨,無法傳遞到ht

為了解決上述問題减江,設(shè)計(jì)了LSTM。LSTM是在標(biāo)準(zhǔn)RNN的基礎(chǔ)上裝備了若干個(gè)控制數(shù)級(jí)的gates捻爷”沧疲可以理解成神經(jīng)網(wǎng)絡(luò)(RNN整體)中加入其他神經(jīng)網(wǎng)絡(luò)(gates),而這些gates只是控制數(shù)級(jí)也榄,控制信息的流動(dòng)量巡莹。根據(jù)gates所用于控制信息流通的地點(diǎn)不同,它們又被分為:
?輸入門:控制有多少上一時(shí)刻的單元輸入信息可以流入當(dāng)前單元甜紫。
?遺忘門:控制有多少上一時(shí)刻的單元中的輸出信息可以累積到當(dāng)前時(shí)刻的單元中降宅。
?輸出門:控制有多少當(dāng)前時(shí)刻的單元中的信息可以流入當(dāng)前隱藏狀態(tài)中。

圖5 LSTM神經(jīng)單元結(jié)構(gòu)

常規(guī)的遞歸網(wǎng)絡(luò)只對(duì)所有過去狀態(tài)存在依賴關(guān)系囚霸。所以遞歸網(wǎng)絡(luò)的一個(gè)擴(kuò)展就是雙向(bidirectional)遞歸網(wǎng)絡(luò):兩個(gè)不同方向的遞歸層疊加腰根。

圖6 BI-LSTM網(wǎng)絡(luò)結(jié)構(gòu)圖

BI-LSTM(雙向長(zhǎng)短期記憶模型)至少含有兩個(gè)遞歸層,正向與反向遞歸層拓型,其網(wǎng)絡(luò)結(jié)構(gòu)如圖所示额嘿。正向(forward)遞歸層是從最初時(shí)刻開始由前向后計(jì)算,而反向(backward)遞歸層是從最末時(shí)刻開始由后向前計(jì)算劣挫。各個(gè)遞歸層的計(jì)算結(jié)果通過一定方式綜合起來得到最終隱藏序列值册养。

現(xiàn)在在NLP序列標(biāo)注工作中比較流行的做法是將BI-LSTM的輸出端的Softmax與CRF結(jié)合,即BI-LSTM-CRF模型压固,這個(gè)放到本人設(shè)計(jì)的DBLC模型中介紹(如果不悖學(xué)術(shù)道德...)球拦。

代碼與實(shí)驗(yàn)對(duì)比

這里用TensorFlow對(duì)BI-LSTM做一個(gè)簡(jiǎn)單的序列標(biāo)注示例。
輸入數(shù)據(jù)的格式帐我、label格式坎炼,網(wǎng)絡(luò)參數(shù)矩陣定義如下所示(不知道簡(jiǎn)書怎么插公式,直接截圖了)焚刚。數(shù)據(jù)均采用One-Hot方法進(jìn)行向量化点弯。

圖7 LSTM序列標(biāo)注示例

完整代碼放在最下方,只用了中國管理案例庫的語料中的609個(gè)字訓(xùn)練矿咕,但效果比7個(gè)字好多了...訓(xùn)練數(shù)據(jù)量對(duì)神經(jīng)網(wǎng)絡(luò)來說確實(shí)很重要抢肛。

圖8 訓(xùn)練數(shù)據(jù)量對(duì)訓(xùn)練效果的影響

圖中more是用609個(gè)字狼钮,而less是7個(gè)字。藍(lán)線準(zhǔn)確率上升平穩(wěn)捡絮,偶然性較小熬芜,且最終得到更高的結(jié)果。

接下來是LSTM與BI-LSTM對(duì)比福稳。

圖9 LSTM與BI-LSTM訓(xùn)練Loss對(duì)比
圖10 LSTM與BI-LSTM訓(xùn)練Acc對(duì)比

import tensorflow as tf
from numpy import *
from gensim.models import word2vec

tf.set_random_seed(1)
lr = 0.001
batch_size = 609
epoch=1500
n_inputs = 6  # 輸入層節(jié)點(diǎn)數(shù)
n_steps =1# 時(shí)步
n_hidden_unis = 7  # 隱藏層節(jié)點(diǎn)
n_classes = 4  # 輸出層節(jié)點(diǎn)數(shù)
def getData():
  f=open(r'C:\Users\Administrator\Desktop\程序\DL for NLP\tf_tagging-master\tf_tagging\data\test\wordlabel.txt',encoding='utf8')
  wordvlist,labellist=[],[]
  f1=open(r'C:\Users\Administrator\Desktop\程序\DL for NLP\tf_tagging-master\tf_tagging\data\test\word.txt',encoding='utf8')
  wordlist=list(set(l.strip() for l in f1.readlines()))
  f1.close()
  for l in f.readlines():
    word,label=l.split(' ')[0],l.split(' ')[1].strip()
    wordv=zeros(len(wordlist))
    wordv[wordlist.index(word)]=1
    labelv=[0,0,0,0]
    if label=='B':
      labelv=[1,0,0,0]
    if label=='I':
      labelv=[0,1,0,0]
    if label=='E':
      labelv=[0,0,1,0]
     if label=='s':
      labelv=[0,0,0,1]
    labellist.append(labelv)
    wordvlist.append([wordv])
  f.close()
  return len(wordlist),wordvlist,labellist

n_inputs,batch_xs,batch_ys=getData()
batch_xs = array(batch_xs)
batch_ys = array(batch_ys)
# 定義訓(xùn)練數(shù)據(jù)的存儲(chǔ)變量
x = tf.placeholder(tf.float32, [None, n_steps, n_inputs])
y = tf.placeholder(tf.float32, [None, n_classes])
# 定義權(quán)重和偏移量矩陣
weights = {
    # (10,7)
    'in': tf.Variable(tf.random_normal([n_inputs, n_hidden_unis])),
    # (4,10)
    'out': tf.Variable(tf.random_normal([n_hidden_unis, n_classes]))
}
biases = {
    # (10,)
    'in': tf.Variable(tf.constant(0.1, shape=[n_hidden_unis, ])),
    # (4,)
    'out': tf.Variable(tf.constant(0.1, shape=[n_classes, ]))
}

def RNN(X, weights, biases):
    # 輸入層 => 隱藏層
    # X(7 batch, 1 steps, 6 inputs) => (7*1, 6)
    X = tf.reshape(X, [-1, n_inputs])
    # W*X+B
    X_in = tf.matmul(X, weights['in'])+biases['in']
    X_in = tf.reshape(X_in,[-1, n_steps, n_hidden_unis])
    # lstm_cell
    lstm_cell = tf.contrib.rnn.BasicLSTMCell(n_hidden_unis, forget_bias=1.0, state_is_tuple=True)
    _init_state = lstm_cell.zero_state(batch_size, dtype=tf.float32)
    outputs, states = tf.nn.dynamic_rnn(lstm_cell, X_in, initial_state=_init_state, time_major=False)
    # 隱藏層 => 輸出層
    results = tf.matmul(states[1], weights['out']) + biases['out']
    return results

pred = RNN(x, weights, biases)
cost = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=pred, labels=y))
train_op = tf.train.AdamOptimizer(lr).minimize(cost)
correct_pred = tf.equal(tf.argmax(pred, 1), tf.argmax(y, 1))
accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))
init = tf.global_variables_initializer()
with tf.Session() as sess:
    sess.run(init)
    step = 0
    while step < epoch:

#這里是香格里拉
        '''batch_xs = [[[1, 0, 0, 0, 0, 0]], [[0, 1, 0, 0, 0, 0]], [[0, 0, 1, 0, 0, 0]], [[0, 0, 0, 1, 0, 0]],
                    [[0, 0, 0, 0, 1, 0]], [[0, 1, 0, 0, 0, 0]], [[0, 0, 0, 0, 0, 1]]]
        batch_ys = [[1, 0, 0, 0], [0, 0, 1, 0], [0, 0, 0, 1], [1, 0, 0, 0], [0, 1, 0, 0], [0, 1, 0, 0],
                    [0, 0, 1, 0]]'''
        sess.run([train_op], feed_dict={
            x: batch_xs,
            y: batch_ys
        })
        if step %50==0:
            loss = sess.run(cost, feed_dict={x: batch_xs, y: batch_ys})
            acc = sess.run(accuracy, feed_dict={x: batch_xs, y: batch_ys})
            print( str(step/50)+"test,Minibatch Loss= " + "{:.6f}".format(loss) + ", Test Accuracy= " + "{:.5f}".format(acc))
        step += 1
    print("Finish!")
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末涎拉,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子的圆,更是在濱河造成了極大的恐慌鼓拧,老刑警劉巖,帶你破解...
    沈念sama閱讀 218,204評(píng)論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件越妈,死亡現(xiàn)場(chǎng)離奇詭異季俩,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)梅掠,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,091評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門酌住,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人阎抒,你說我怎么就攤上這事酪我。” “怎么了且叁?”我有些...
    開封第一講書人閱讀 164,548評(píng)論 0 354
  • 文/不壞的土叔 我叫張陵都哭,是天一觀的道長(zhǎng)。 經(jīng)常有香客問我谴古,道長(zhǎng)质涛,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,657評(píng)論 1 293
  • 正文 為了忘掉前任掰担,我火速辦了婚禮汇陆,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘带饱。我一直安慰自己毡代,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,689評(píng)論 6 392
  • 文/花漫 我一把揭開白布勺疼。 她就那樣靜靜地躺著教寂,像睡著了一般。 火紅的嫁衣襯著肌膚如雪执庐。 梳的紋絲不亂的頭發(fā)上酪耕,一...
    開封第一講書人閱讀 51,554評(píng)論 1 305
  • 那天,我揣著相機(jī)與錄音轨淌,去河邊找鬼迂烁。 笑死看尼,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的盟步。 我是一名探鬼主播藏斩,決...
    沈念sama閱讀 40,302評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼却盘!你這毒婦竟也來了狰域?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 39,216評(píng)論 0 276
  • 序言:老撾萬榮一對(duì)情侶失蹤黄橘,失蹤者是張志新(化名)和其女友劉穎兆览,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體塞关,經(jīng)...
    沈念sama閱讀 45,661評(píng)論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡拓颓,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,851評(píng)論 3 336
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了描孟。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 39,977評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡砰左,死狀恐怖匿醒,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情缠导,我是刑警寧澤廉羔,帶...
    沈念sama閱讀 35,697評(píng)論 5 347
  • 正文 年R本政府宣布,位于F島的核電站僻造,受9級(jí)特大地震影響憋他,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜髓削,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,306評(píng)論 3 330
  • 文/蒙蒙 一竹挡、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧立膛,春花似錦揪罕、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,898評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至儿奶,卻和暖如春框往,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背闯捎。 一陣腳步聲響...
    開封第一講書人閱讀 33,019評(píng)論 1 270
  • 我被黑心中介騙來泰國打工椰弊, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留许溅,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 48,138評(píng)論 3 370
  • 正文 我出身青樓男应,卻偏偏與公主長(zhǎng)得像闹司,于是被迫代替她去往敵國和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子沐飘,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,927評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容