Keras文本分類(lèi)案例

關(guān)鍵詞:

  • word embedding
  • cnn
  • glove:大神預(yù)先做好的詞向量(就是每個(gè)單詞用固定維數(shù)的向量表示)
  • 20_newsgroup:需要進(jìn)行分類(lèi)的文本(training data and testing data)

過(guò)程

  1. 將所有的新聞樣本轉(zhuǎn)化為詞索引序列
  2. 生成一個(gè)glove詞向量矩陣
  3. 將詞向量矩陣載入Keras Embedding層,設(shè)置該層的權(quán)重不可再訓(xùn)練
  4. Keras Embedding層之后連接一個(gè)1D的卷積層,并用一個(gè)softmax全連接輸出新聞?lì)悇e

原理分析

Get training data and testing data

texts = []  # texts表示的是一系列文件文字集(X)
labels_index = {}  # 這個(gè)字典用于講文件夾名(新聞?lì)悇e)和label_id對(duì)應(yīng)起來(lái)
labels = []  # labels表示每個(gè)text所屬類(lèi)別(y)
TEXT_DATA_DIR = "text_data/20_newsgroup"
for name in sorted(os.listdir(TEXT_DATA_DIR)):
    path = os.path.join(TEXT_DATA_DIR, name)
    print('\n遍歷文件夾 %s :' % name)
    if os.path.isdir(path):
        labels_id = len(labels_index)
        labels_index[name] = labels_id
        for fname in sorted(os.listdir(path)):
            if fname.isdigit():
                print("%s \t" % fname, end="")
                fpath = os.path.join(path, fname)
                f = open(fpath, encoding='latin1')
                texts.append(f.read())
                f.close()
                labels.append(labels_id)

# 得到的每個(gè)text表示的是一個(gè)文件里的所有內(nèi)容鞠眉,而不是指單獨(dú)一個(gè)單詞
print('Found %s texts.' % len(texts))

>>> Found 19997 texts.

每個(gè)text包含個(gè)數(shù)不等的word,并且有對(duì)應(yīng)的新聞?lì)悇e(labels_id),labels_index就是連接這個(gè)兩個(gè)關(guān)系的字典

keras.preprocessing.text.textTokenizer

文本預(yù)處理

MAX_NUM_WORDS = 6000
tokenizer = Tokenizer(num_words=MAX_NUM_WORDS)
tokenizer.fit_on_texts(texts)
sequences = tokenizer.texts_to_sequences(texts)

# 字典草巡,key = sequences of text, values = labels_id
word_index = tokenizer.word_index
print('Found %s unique tokens.' % len(texts))
print('Found %s  words.' % len(word_index))

MAX_SEQUENCE_LENGTH = 500  # 每個(gè)text中取多少word, (多剪少補(bǔ))
data = pad_sequences(sequences, maxlen=MAX_SEQUENCE_LENGTH)

labels = to_categorical(np.array(labels))
print('Shape of data tensor:', data.shape)
print('Shape of label tensor:', labels.shape)

Tokenizer類(lèi)講每個(gè)text變成一個(gè)sequence百宇,每個(gè)word對(duì)應(yīng)sequence中的元素庆锦。


輸出結(jié)果
將有序數(shù)據(jù)隨機(jī)化用于訓(xùn)練和驗(yàn)證:比例(8:2)
VALIDATION_SPLIT = 0.2
indices = np.arange(data.shape[0])
np.random.shuffle(indices)
data = data[indices]
labels = labels[indices]
nb_validation_samples = int(VALIDATION_SPLIT * data.shape[0])

x_train = data[:-nb_validation_samples]
y_train = labels[:-nb_validation_samples]
x_val = data[-nb_validation_samples:]
y_val = labels[-nb_validation_samples:]

獲取Glove詞向量

# glove字典辫继,每個(gè)單詞對(duì)應(yīng)一個(gè)100維的向量
def get_glove_dict(glove_dir):
    embeddings_index = {}
    f = open(os.path.join(glove_dir, 'glove.6B.100d.txt'))
    for line in f:
        values = line.split()
        word = values[0]
        coefs = np.asarray(values[1:], dtype='float32')
        embeddings_index[word] = coefs
    f.close()
    print('Found %s word vectors.' % len(embeddings_index))
    return embeddings_index

輸出:

>>> Found 400000 word vectors.

詞向量嵌入Embedding

GLOVE_DIR = 'text_data/glove.6B'
EMBEDDING_DIM = 100
embedding_matrix = np.zeros((len(word_index) + 1, EMBEDDING_DIM))
embedding_index = get_glove_dict(GLOVE_DIR)
for word, i in word_index.items():
    embedding_vector = embedding_index.get(word)
    if embedding_vector is not None:
        # words not found in embedding index will be all-zeros.
        embedding_matrix[i] = embedding_vector

embedding_layer = Embedding(len(word_index) + 1,
                            EMBEDDING_DIM,
                            weights=[embedding_matrix],
                            input_length=MAX_SEQUENCE_LENGTH,
                            trainable=False)

分析:
這里我們獲取到一個(gè)400000x100的詞向量硼婿,看來(lái)英語(yǔ)單詞大概有400000個(gè)锌半。
training_data是19997x500,每個(gè)元素表示一個(gè)word寇漫,我們需要為每個(gè)word再詞向量中找到它對(duì)應(yīng)的向量刊殉,這就是word embedding需要做的工作,可以節(jié)省大量計(jì)算時(shí)間州胳。

 embedding_vector = embedding_index.get(word)

就是獲取traing_data中出現(xiàn)的word的vector

輸入卷積層
sequence_input = Input(shape=(MAX_SEQUENCE_LENGTH,), dtype='int32')
embedded_sequences = embedding_layer(sequence_input)
x = Conv1D(128, 5, activation='relu')(embedded_sequences)
x = MaxPooling1D(5)(x)
x = Conv1D(128, 5, activation='relu')(x)
x = MaxPooling1D(5)(x)
x = Conv1D(128, 5, activation='relu')(x)
x = MaxPooling1D(15)(x)  # global max pooling
x = Flatten()(x)
x = Dense(128, activation='relu')(x)
preds = Dense(len(labels_index), activation='softmax')(x)

model = Model(sequence_input, preds)
model.compile(loss='categorical_crossentropy',
              optimizer='rmsprop',
              metrics=['acc'])
# happy learning!
model.fit(x_train, y_train, validation_data=(x_val, y_val),
          epochs=5, batch_size=128)

Result:

loss: 0.1446 - acc: 0.9448 - val_loss: 0.1871 - val_acc: 0.9325

還是不錯(cuò)的

參考:
https://github.com/MoyanZitto/keras-cn/blob/master/docs/legacy/blog/word_embedding.md

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末记焊,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子栓撞,更是在濱河造成了極大的恐慌遍膜,老刑警劉巖,帶你破解...
    沈念sama閱讀 222,946評(píng)論 6 518
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件腐缤,死亡現(xiàn)場(chǎng)離奇詭異捌归,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī)岭粤,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 95,336評(píng)論 3 399
  • 文/潘曉璐 我一進(jìn)店門(mén)惜索,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人剃浇,你說(shuō)我怎么就攤上這事巾兆。” “怎么了虎囚?”我有些...
    開(kāi)封第一講書(shū)人閱讀 169,716評(píng)論 0 364
  • 文/不壞的土叔 我叫張陵角塑,是天一觀的道長(zhǎng)。 經(jīng)常有香客問(wèn)我淘讥,道長(zhǎng)圃伶,這世上最難降的妖魔是什么? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 60,222評(píng)論 1 300
  • 正文 為了忘掉前任蒲列,我火速辦了婚禮窒朋,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘蝗岖。我一直安慰自己侥猩,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 69,223評(píng)論 6 398
  • 文/花漫 我一把揭開(kāi)白布抵赢。 她就那樣靜靜地躺著欺劳,像睡著了一般唧取。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上划提,一...
    開(kāi)封第一講書(shū)人閱讀 52,807評(píng)論 1 314
  • 那天枫弟,我揣著相機(jī)與錄音,去河邊找鬼腔剂。 笑死媒区,一個(gè)胖子當(dāng)著我的面吹牛驼仪,可吹牛的內(nèi)容都是我干的掸犬。 我是一名探鬼主播,決...
    沈念sama閱讀 41,235評(píng)論 3 424
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼绪爸,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼湾碎!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起奠货,我...
    開(kāi)封第一講書(shū)人閱讀 40,189評(píng)論 0 277
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤介褥,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后递惋,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體柔滔,經(jīng)...
    沈念sama閱讀 46,712評(píng)論 1 320
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,775評(píng)論 3 343
  • 正文 我和宋清朗相戀三年萍虽,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了睛廊。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,926評(píng)論 1 353
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡杉编,死狀恐怖超全,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情邓馒,我是刑警寧澤嘶朱,帶...
    沈念sama閱讀 36,580評(píng)論 5 351
  • 正文 年R本政府宣布,位于F島的核電站光酣,受9級(jí)特大地震影響疏遏,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜救军,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 42,259評(píng)論 3 336
  • 文/蒙蒙 一财异、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧缤言,春花似錦宝当、人聲如沸。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 32,750評(píng)論 0 25
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)俐东。三九已至,卻和暖如春订晌,著一層夾襖步出監(jiān)牢的瞬間虏辫,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 33,867評(píng)論 1 274
  • 我被黑心中介騙來(lái)泰國(guó)打工锈拨, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留砌庄,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 49,368評(píng)論 3 379
  • 正文 我出身青樓奕枢,卻偏偏與公主長(zhǎng)得像娄昆,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子缝彬,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,930評(píng)論 2 361

推薦閱讀更多精彩內(nèi)容