Python深度學(xué)習(xí)4-真假新聞判別實(shí)戰(zhàn)

真假新聞數(shù)據(jù)集下載地址:https://www.kaggle.com/c/fake-news/data#
本文采用LSTM進(jìn)行真假新聞的判別,是二分類任務(wù)。

一霸褒、導(dǎo)入包

我的tensorflow际度,keras版本是2.7.0

import pandas as pd
from keras.models import Sequential
from keras.layers import Dense, LSTM, Embedding, Dropout
from keras.preprocessing.sequence import pad_sequences
from keras.preprocessing.text import one_hot
import re
from nltk.corpus import stopwords
import numpy as np
from sklearn.model_selection import train_test_split
from sklearn.metrics import confusion_matrix
from nltk.stem.porter import PorterStemmer
from sklearn.metrics import accuracy_score
from keras.models import load_model

二、讀取數(shù)據(jù)

df=pd.read_csv('train.csv')
df=df.dropna() ##去掉有nan的行
## Get the Independent Features
X=df.drop('label',axis=1)  ##x是去掉標(biāo)簽列的數(shù)據(jù)
y=df['label']                     ##標(biāo)簽列

### Vocabulary size
voc_size=5000
messages=X.copy()
messages.reset_index(inplace=True)  ##重置索引滞乙,因?yàn)橛袆h除操作

三、文本處理

對(duì)文本進(jìn)行處理。
例如:
"President Obama and President-Elect Donald Trump Meet at White House: Share:" 處理完——>
presid obama presid elect donald trump meet white hous share

ps = PorterStemmer()
corpus = []
for i in range(0, len(messages)):
    review = re.sub('[^a-zA-Z]', ' ', messages['title'][i]) ##只保留字母
    review = review.lower()       ##轉(zhuǎn)為小寫
    review = review.split()         ##按空白拆分
    #去停用詞
    review = [ps.stem(word) for word in review if not word in stopwords.words('english')]
    review = ' '.join(review)  ##將列表轉(zhuǎn)為str類型
    corpus.append(review)  

四枯夜、格式轉(zhuǎn)化

要將文本數(shù)據(jù)轉(zhuǎn)為深度學(xué)習(xí)的輸入格式

onehot_repr=[one_hot(words,voc_size) for words in corpus] ##文本轉(zhuǎn)為one_hot編碼格式
sent_length=20 
embedded_docs=pad_sequences(onehot_repr,padding='pre',maxlen=sent_length) ##用0前向填充,因?yàn)槲谋鹃L(zhǎng)度不一致
##轉(zhuǎn)成np.array數(shù)組格式
X_final=np.array(embedded_docs) 
y_final=np.array(y)
##劃分訓(xùn)練集和測(cè)試集
X_train, X_test, y_train, y_test = train_test_split(X_final, y_final, test_size=0.33, random_state=42)

五艰山、模型的建立湖雹,訓(xùn)練和預(yù)測(cè)

##keras序貫?zāi)P?embedding_vector_features=40
model=Sequential()
model.add(Embedding(voc_size,embedding_vector_features,input_length=sent_length))
model.add(Dropout(0.3))
model.add(LSTM(100))  ##Bidirectional(LSTM(100))雙向LSTM替換即可
model.add(Dropout(0.3))
model.add(Dense(1,activation='sigmoid'))
model.compile(loss='binary_crossentropy',optimizer='adam',metrics=['accuracy'])

##開始訓(xùn)練
model.fit(X_train,y_train,validation_data=(X_test,y_test),epochs=10,batch_size=64)

##預(yù)測(cè)
y_pred= model.predict(X_test)  #輸出是一個(gè)離散值,越接近1就表示是1的概率越大

六曙搬、模型評(píng)估保存

##值大于0.5就是1摔吏,小于0.5就是0
def probability_to_intres(data):
    res = []
    for i in data:
        if i > 0.5:
            res.append(1)
        else:
            res.append(0)
    return res
res = probability_to_intres(y_pred)
confusion_matrix(y_test,res)  ##評(píng)估矩陣
accuracy_score(y_test,res)    ##準(zhǔn)確率
model.save('my_model.h5')   ##保存

七、若新數(shù)據(jù)來了

如果來新數(shù)據(jù)了纵装,判斷是否是虛假新聞

new_text = "President Obama and President-Elect Donald Trump Meet at White House: Share:"
##上述方法進(jìn)行文本處理征讲,轉(zhuǎn)化格式
review1 = re.sub('[^a-zA-Z]', ' ', new_text)
review1 = review1.lower()
review1 = review1.split()
review1 = [ps.stem(word) for word in review1 if not word in stopwords.words('english')]
review1 = ' '.join(review1)
onehot_repr1=[one_hot(review1, voc_size) ] 
sent_length=20
embedded_docs1=pad_sequences(onehot_repr1,padding='pre',maxlen=sent_length)
X_final1=np.array(embedded_docs1)
model_best = load_model('my_model.h5')  ##導(dǎo)入之前保存的模型
print(model_best.predict(X_final1))
print("最終判斷結(jié)果:", probability_to_intres(model_best.predict(X_final1)))

完整代碼如下

import pandas as pd
from keras.models import Sequential
from keras.layers import Dense, LSTM, Embedding, Dropout
from keras.preprocessing.sequence import pad_sequences
from keras.preprocessing.text import one_hot
import re
from nltk.corpus import stopwords
import numpy as np
from sklearn.model_selection import train_test_split
from sklearn.metrics import confusion_matrix
from nltk.stem.porter import PorterStemmer
from sklearn.metrics import accuracy_score
from keras.models import load_model

df=pd.read_csv('train.csv')
df=df.dropna() ##去掉有nan的行
## Get the Independent Features
X=df.drop('label',axis=1)  ##x是去掉標(biāo)簽列的數(shù)據(jù)
y=df['label']                     ##標(biāo)簽列

### Vocabulary size
voc_size=5000
messages=X.copy()
messages.reset_index(inplace=True)  ##重置索引,因?yàn)橛袆h除操作

ps = PorterStemmer()
corpus = []
for i in range(0, len(messages)):
    review = re.sub('[^a-zA-Z]', ' ', messages['title'][i]) ##只保留字母
    review = review.lower()       ##轉(zhuǎn)為小寫
    review = review.split()         ##按空白拆分
    #去停用詞
    review = [ps.stem(word) for word in review if not word in stopwords.words('english')]
    review = ' '.join(review)  ##將列表轉(zhuǎn)為str類型
    corpus.append(review)  

onehot_repr=[one_hot(words,voc_size) for words in corpus] ##文本轉(zhuǎn)為one_hot編碼格式
sent_length=20 
embedded_docs=pad_sequences(onehot_repr,padding='pre',maxlen=sent_length) ##用0前向填充橡娄,因?yàn)槲谋鹃L(zhǎng)度不一致
##轉(zhuǎn)成np.array數(shù)組格式
X_final=np.array(embedded_docs) 
y_final=np.array(y)
##劃分訓(xùn)練集和測(cè)試集
X_train, X_test, y_train, y_test = train_test_split(X_final, y_final, test_size=0.33, random_state=42)

##keras序貫?zāi)P?embedding_vector_features=40
model=Sequential()
model.add(Embedding(voc_size,embedding_vector_features,input_length=sent_length))
model.add(Dropout(0.3))
model.add(LSTM(100))  ##Bidirectional(LSTM(100))雙向LSTM替換即可
model.add(Dropout(0.3))
model.add(Dense(1,activation='sigmoid'))
model.compile(loss='binary_crossentropy',optimizer='adam',metrics=['accuracy'])

##開始訓(xùn)練
model.fit(X_train,y_train,validation_data=(X_test,y_test),epochs=10,batch_size=64)

##預(yù)測(cè)
y_pred= model.predict(X_test)  #輸出是一個(gè)離散值诗箍,越接近1就表示是1的概率越大

##值大于0.5就是1,小于0.5就是0
def probability_to_intres(data):
    res = []
    for i in data:
        if i > 0.5:
            res.append(1)
        else:
            res.append(0)
    return res
res = probability_to_intres(y_pred)
confusion_matrix(y_test,res)  ##評(píng)估矩陣
accuracy_score(y_test,res)    ##準(zhǔn)確率
model.save('my_model.h5')   ##保存

#如果來新數(shù)據(jù)了瀑踢,判斷是否是虛假新聞

new_text = "President Obama and President-Elect Donald Trump Meet at White House: Share:"
##上述方法進(jìn)行文本處理扳还,轉(zhuǎn)化格式
review1 = re.sub('[^a-zA-Z]', ' ', new_text)
review1 = review1.lower()
review1 = review1.split()
review1 = [ps.stem(word) for word in review1 if not word in stopwords.words('english')]
review1 = ' '.join(review1)
onehot_repr1=[one_hot(review1, voc_size) ] 
sent_length=20
embedded_docs1=pad_sequences(onehot_repr1,padding='pre',maxlen=sent_length)
X_final1=np.array(embedded_docs1)
model_best = load_model('my_model.h5')  ##導(dǎo)入之前保存的模型
print(model_best.predict(X_final1))
print("最終判斷結(jié)果:", probability_to_intres(model_best.predict(X_final1)))
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市橱夭,隨后出現(xiàn)的幾起案子氨距,更是在濱河造成了極大的恐慌,老刑警劉巖棘劣,帶你破解...
    沈念sama閱讀 218,546評(píng)論 6 507
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件俏让,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)首昔,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,224評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門寡喝,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人勒奇,你說我怎么就攤上這事预鬓。” “怎么了赊颠?”我有些...
    開封第一講書人閱讀 164,911評(píng)論 0 354
  • 文/不壞的土叔 我叫張陵格二,是天一觀的道長(zhǎng)。 經(jīng)常有香客問我竣蹦,道長(zhǎng)顶猜,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,737評(píng)論 1 294
  • 正文 為了忘掉前任痘括,我火速辦了婚禮长窄,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘纲菌。我一直安慰自己挠日,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,753評(píng)論 6 392
  • 文/花漫 我一把揭開白布翰舌。 她就那樣靜靜地躺著肆资,像睡著了一般。 火紅的嫁衣襯著肌膚如雪灶芝。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,598評(píng)論 1 305
  • 那天唉韭,我揣著相機(jī)與錄音夜涕,去河邊找鬼。 笑死属愤,一個(gè)胖子當(dāng)著我的面吹牛女器,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播住诸,決...
    沈念sama閱讀 40,338評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼驾胆,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來了贱呐?” 一聲冷哼從身側(cè)響起丧诺,我...
    開封第一講書人閱讀 39,249評(píng)論 0 276
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎奄薇,沒想到半個(gè)月后驳阎,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,696評(píng)論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,888評(píng)論 3 336
  • 正文 我和宋清朗相戀三年呵晚,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了蜘腌。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,013評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡饵隙,死狀恐怖撮珠,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情金矛,我是刑警寧澤芯急,帶...
    沈念sama閱讀 35,731評(píng)論 5 346
  • 正文 年R本政府宣布,位于F島的核電站绷柒,受9級(jí)特大地震影響志于,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜废睦,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,348評(píng)論 3 330
  • 文/蒙蒙 一伺绽、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧嗜湃,春花似錦奈应、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,929評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至刚陡,卻和暖如春惩妇,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背筐乳。 一陣腳步聲響...
    開封第一講書人閱讀 33,048評(píng)論 1 270
  • 我被黑心中介騙來泰國(guó)打工歌殃, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人蝙云。 一個(gè)月前我還...
    沈念sama閱讀 48,203評(píng)論 3 370
  • 正文 我出身青樓氓皱,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親勃刨。 傳聞我的和親對(duì)象是個(gè)殘疾皇子波材,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,960評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容