基于LSTM的文本分類

#!usr/bin/python
# coding=utf-8
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as sns
from sklearn import metrics
from sklearn.preprocessing import LabelEncoder,OneHotEncoder
from keras.models import Model
from keras.layers import LSTM, Activation, Dense, Dropout, Input, Embedding
from keras.optimizers import RMSprop
from keras.preprocessing.text import Tokenizer
from keras.preprocessing import sequence
from keras.callbacks import EarlyStopping
# ## 設(shè)置字體
# from matplotlib.font_manager import FontProperties
# # fonts = FontProperties(fname = "/Library/Fonts/華文細(xì)黑.ttf",size=14)
# # %config InlineBackend.figure_format = 'retina'
# %matplotlib inline
import matplotlib
import matplotlib.pyplot as plt
import seaborn as sns
# 畫(huà)圖支持中文顯示
from pylab import *
matplotlib.rcParams['font.sans-serif'] = ['SimHei']

# 顯示所有列
pd.set_option('display.max_columns', None)
# 顯示所有行
pd.set_option('display.max_rows', None)
# 設(shè)置value的顯示長(zhǎng)度為10000,默認(rèn)為50
pd.set_option('display.width',10000)
pd.set_option('display.unicode.ambiguous_as_wide', True)
pd.set_option('display.unicode.east_asian_width', True)
#
np.set_printoptions(linewidth=1000)

## 讀取測(cè)數(shù)據(jù)集
train_df = pd.read_csv("G:\\rnn\lstm\cnews-LSTM\cnews_train.csv")
val_df = pd.read_csv("G:\\rnn\lstm\cnews-LSTM\cnews_val.csv")
test_df = pd.read_csv("G:\\rnn\lstm\cnews-LSTM\cnews_test.csv")
# print(train_df.head())
# print(val_df.head())
# print(test_df.head())
print(train_df.iloc[1:2,[2]])
print(type(train_df.iloc[1:2,[2]]))
# print(len((train_df.iloc[1:2,[2]]).values), (train_df.iloc[1:2,[2]]).values)
print((train_df.iloc[1:2,[2]]).values.tolist())
print(len(set(((train_df.iloc[1:2,[2]]).values.tolist())[0][0])))
print(train_df.iloc[1:2,[3]]) # 第4列為對(duì)應(yīng)詞組的個(gè)數(shù)
# -------------------------------------------------------------
a = list(filter(None, (((train_df.iloc[0:1,[2]]).values.tolist())[0][0]).split(" ")))
b = list(filter(None, (((train_df.iloc[1:2,[2]]).values.tolist())[0][0]).split(" ")))
print(len(a), len(b), a, b)
a.extend(b)
print(a)
print(len(a), len(set(a)))
# 該數(shù)據(jù)集已經(jīng)進(jìn)行了處理值朋,每個(gè)數(shù)據(jù)集包含4列數(shù)據(jù)叹侄,其中第一列為標(biāo)簽數(shù)據(jù),第二列為新聞的原文數(shù)據(jù)昨登,第三列為經(jīng)過(guò)分詞趾代、去停用詞等操作,并使用空格連接的分詞后數(shù)據(jù)丰辣,第4列為對(duì)應(yīng)詞組的個(gè)數(shù)撒强。

# 數(shù)據(jù)探索:查看訓(xùn)練集都有哪些標(biāo)簽
plt.figure()
sns.countplot(train_df.label)
# plt.xlabel('Label',fontproperties = fonts,size = 10)
# plt.xticks(fontproperties = fonts,size = 10)
plt.xlabel('Label',size = 10)
plt.xticks(size = 10)
plt.show()
# 分析訓(xùn)練集中詞組數(shù)量的分布
print(train_df.cutwordnum.describe())
plt.figure()
plt.hist(train_df.cutwordnum,bins=100)
# plt.xlabel("詞組長(zhǎng)度",fontproperties = fonts,size = 12)
# plt.ylabel("頻數(shù)",fontproperties = fonts,size = 12)
# plt.title("訓(xùn)練數(shù)據(jù)集",fontproperties = fonts)
plt.xlabel("詞組長(zhǎng)度",size = 12)
plt.ylabel("頻數(shù)",size = 12)
plt.title("訓(xùn)練數(shù)據(jù)集")
plt.show()

# 接下來(lái)對(duì)數(shù)據(jù)集的標(biāo)簽數(shù)據(jù)進(jìn)行編碼,首先是LabelEncoder()編碼笙什,然后是進(jìn)行OneHotEncoder()編碼飘哨。-------------------------------編碼標(biāo)簽
# 對(duì)數(shù)據(jù)集的標(biāo)簽數(shù)據(jù)進(jìn)行編碼
train_y = train_df.label
val_y = val_df.label
test_y = test_df.label
le = LabelEncoder()
train_y = le.fit_transform(train_y).reshape(-1,1)
val_y = le.transform(val_y).reshape(-1,1)
test_y = le.transform(test_y).reshape(-1,1)
# 對(duì)數(shù)據(jù)集的標(biāo)簽數(shù)據(jù)進(jìn)行one-hot編碼
ohe = OneHotEncoder()
train_y = ohe.fit_transform(train_y).toarray()
val_y = ohe.transform(val_y).toarray()
test_y = ohe.transform(test_y).toarray()

# 使用Tokenizer對(duì)詞組進(jìn)行編碼--------------------------------------------------------------------------------------------編碼文本
# 當(dāng)我們創(chuàng)建了一個(gè)Tokenizer對(duì)象后,使用該對(duì)象的fit_on_texts()函數(shù)琐凭,以空格去識(shí)別每個(gè)詞,
# 可以將輸入的文本中的每個(gè)詞編號(hào)芽隆,編號(hào)是根據(jù)詞頻的,詞頻越大统屈,編號(hào)越小胚吁。
max_words = 5000
max_len = 600
tok = Tokenizer(num_words=max_words)  ## 使用的最大詞語(yǔ)數(shù)為5000
tok.fit_on_texts(train_df.cutword)
# 使用word_index屬性可以看到每次詞對(duì)應(yīng)的編碼
# 使用word_counts屬性可以看到每個(gè)詞對(duì)應(yīng)的頻數(shù)
for ii,iterm in enumerate(tok.word_index.items()):
    if ii < 10:
        print(iterm)
    else:
        break
print("===================")
for ii,iterm in enumerate(tok.word_counts.items()):
    if ii < 10:
        print(iterm)
    else:
        break

# 使用tok.texts_to_sequences()將數(shù)據(jù)轉(zhuǎn)化為序列,并使用sequence.pad_sequences()將每個(gè)序列調(diào)整為相同的長(zhǎng)度
# 對(duì)每個(gè)詞編碼之后愁憔,每句新聞中的每個(gè)詞就可以用對(duì)應(yīng)的編碼表示腕扶,即每條新聞可以轉(zhuǎn)變成一個(gè)向量了:
train_seq = tok.texts_to_sequences(train_df.cutword)
val_seq = tok.texts_to_sequences(val_df.cutword)
test_seq = tok.texts_to_sequences(test_df.cutword)
## 將每個(gè)序列調(diào)整為相同的長(zhǎng)度
train_seq_mat = sequence.pad_sequences(train_seq,maxlen=max_len)
val_seq_mat = sequence.pad_sequences(val_seq,maxlen=max_len)
test_seq_mat = sequence.pad_sequences(test_seq,maxlen=max_len)

print(train_seq_mat.shape)
print(val_seq_mat.shape)
print(test_seq_mat.shape)

# 定義LSTM模型
inputs = Input(name='inputs',shape=[max_len])
## Embedding(詞匯表大小,batch大小,每個(gè)新聞的詞長(zhǎng))
layer = Embedding(max_words+1,128,input_length=max_len)(inputs)
# layer = LSTM(128)(layer)
layer = LSTM(8)(layer)
layer = Dense(128,activation="relu",name="FC1")(layer)
layer = Dropout(0.5)(layer)
layer = Dense(10,activation="softmax",name="FC2")(layer)
model = Model(inputs=inputs,outputs=layer)
model.summary()
model.compile(loss="categorical_crossentropy",optimizer=RMSprop(),metrics=["accuracy"])

# 模型訓(xùn)練
# model_fit = model.fit(train_seq_mat,train_y,batch_size=128,epochs=10,
#                       validation_data=(val_seq_mat,val_y),
#                       callbacks=[EarlyStopping(monitor='val_loss',min_delta=0.0001)] ## 當(dāng)val-loss不再提升時(shí)停止訓(xùn)練
#                      )
model_fit = model.fit(train_seq_mat,train_y,batch_size=128,epochs=1,
                      validation_data=(val_seq_mat,val_y),
                      callbacks=[EarlyStopping(monitor='val_loss',min_delta=0.0001)] ## 當(dāng)val-loss不再提升時(shí)停止訓(xùn)練
                     )

# -----------------------------------------------------------------------------------------------------------------
# 對(duì)測(cè)試集進(jìn)行預(yù)測(cè)
test_pre = model.predict(test_seq_mat)

## 評(píng)價(jià)預(yù)測(cè)效果,計(jì)算混淆矩陣
confm = metrics.confusion_matrix(np.argmax(test_pre,axis=1),np.argmax(test_y,axis=1))
## 混淆矩陣可視化
Labname = ["體育","娛樂(lè)","家居","房產(chǎn)","教育","時(shí)尚","時(shí)政","游戲","科技","財(cái)經(jīng)"]
plt.figure(figsize=(8,8))
sns.heatmap(confm.T, square=True, annot=True,
            fmt='d', cbar=False,linewidths=.8,
            cmap="YlGnBu")
plt.xlabel('True label',size = 14)
plt.ylabel('Predicted label',size = 14)
plt.xticks(np.arange(10)+0.5,Labname,fontproperties = fonts,size = 12)
plt.yticks(np.arange(10)+0.3,Labname,fontproperties = fonts,size = 12)
plt.show()

print(metrics.classification_report(np.argmax(test_pre,axis=1),np.argmax(test_y,axis=1)))

參考:
https://www.cnblogs.com/BobHuang/p/11157489.html
https://kexue.fm/archives/3414
https://zhuanlan.zhihu.com/p/39884984
http://www.reibang.com/p/caee648f6a1f
https://zhuanlan.zhihu.com/p/50657430

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末吨掌,一起剝皮案震驚了整個(gè)濱河市半抱,隨后出現(xiàn)的幾起案子脓恕,更是在濱河造成了極大的恐慌,老刑警劉巖代虾,帶你破解...
    沈念sama閱讀 218,284評(píng)論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件进肯,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡棉磨,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,115評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門学辱,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)乘瓤,“玉大人,你說(shuō)我怎么就攤上這事策泣⊙每” “怎么了?”我有些...
    開(kāi)封第一講書(shū)人閱讀 164,614評(píng)論 0 354
  • 文/不壞的土叔 我叫張陵萨咕,是天一觀的道長(zhǎng)统抬。 經(jīng)常有香客問(wèn)我,道長(zhǎng)危队,這世上最難降的妖魔是什么聪建? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 58,671評(píng)論 1 293
  • 正文 為了忘掉前任,我火速辦了婚禮茫陆,結(jié)果婚禮上金麸,老公的妹妹穿的比我還像新娘。我一直安慰自己簿盅,他們只是感情好挥下,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,699評(píng)論 6 392
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著桨醋,像睡著了一般棚瘟。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上喜最,一...
    開(kāi)封第一講書(shū)人閱讀 51,562評(píng)論 1 305
  • 那天偎蘸,我揣著相機(jī)與錄音,去河邊找鬼返顺。 笑死禀苦,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的遂鹊。 我是一名探鬼主播振乏,決...
    沈念sama閱讀 40,309評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼秉扑!你這毒婦竟也來(lái)了慧邮?” 一聲冷哼從身側(cè)響起调限,我...
    開(kāi)封第一講書(shū)人閱讀 39,223評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎误澳,沒(méi)想到半個(gè)月后耻矮,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,668評(píng)論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡忆谓,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,859評(píng)論 3 336
  • 正文 我和宋清朗相戀三年裆装,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片倡缠。...
    茶點(diǎn)故事閱讀 39,981評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡哨免,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出昙沦,到底是詐尸還是另有隱情琢唾,我是刑警寧澤,帶...
    沈念sama閱讀 35,705評(píng)論 5 347
  • 正文 年R本政府宣布盾饮,位于F島的核電站采桃,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏丘损。R本人自食惡果不足惜普办,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,310評(píng)論 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望号俐。 院中可真熱鬧泌豆,春花似錦、人聲如沸吏饿。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 31,904評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)猪落。三九已至贞远,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間笨忌,已是汗流浹背蓝仲。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 33,023評(píng)論 1 270
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留官疲,地道東北人袱结。 一個(gè)月前我還...
    沈念sama閱讀 48,146評(píng)論 3 370
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像途凫,于是被迫代替她去往敵國(guó)和親垢夹。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,933評(píng)論 2 355