cnn+lstm+attention對(duì)時(shí)序數(shù)據(jù)進(jìn)行預(yù)測(cè)

1例隆、摘要

本文主要講解:bilstm-cnn-attention對(duì)時(shí)序數(shù)據(jù)進(jìn)行預(yù)測(cè)
主要思路:

  1. 對(duì)時(shí)序數(shù)據(jù)進(jìn)行分塊,生成三維時(shí)序數(shù)據(jù)塊
  2. 建立模型,卷積層-bilstm層-attention按順序建立鹃锈,attention層可放中間也可放前面窜醉,效果各不相同
  3. 訓(xùn)練模型宪萄,使用訓(xùn)練好的模型進(jìn)行預(yù)測(cè)
  4. 調(diào)參優(yōu)化,保存模型

2榨惰、數(shù)據(jù)介紹

需要完整代碼和數(shù)據(jù)介紹請(qǐng)移步我的下載拜英,技術(shù)實(shí)力不錯(cuò)的大佬應(yīng)該能不用代碼就能復(fù)用,看大家大展神通琅催,小白請(qǐng)移步以下鏈接:
cnn+lstm+attention對(duì)時(shí)序數(shù)據(jù)進(jìn)行預(yù)測(cè)

3居凶、相關(guān)技術(shù)

BiLSTM:前向和方向的兩條LSTM網(wǎng)絡(luò),被稱(chēng)為雙向LSTM藤抡,也叫BiLSTM侠碧。其思想是將同一個(gè)輸入序列分別接入向前和先后的兩個(gè)LSTM中,然后將兩個(gè)網(wǎng)絡(luò)的隱含層連在一起缠黍,共同接入到輸出層進(jìn)行預(yù)測(cè)弄兜。


BiLSTM

attention注意力機(jī)制


attention

一維卷積


一維卷積

cnn+lstm+attention 網(wǎng)絡(luò)結(jié)構(gòu)圖


請(qǐng)?zhí)砑訄D片描述

4、完整代碼和步驟

此程序運(yùn)行代碼版本為:

tensorflow==2.5.0
numpy==1.19.5
keras==2.6.0
matplotlib==3.5.2

主運(yùn)行程序入口

from keras.callbacks import EarlyStopping, ModelCheckpoint
from keras.layers import Conv1D, Bidirectional, Multiply, LSTM
from keras.layers.core import *
from keras.models import *
from sklearn.metrics import mean_absolute_error
from keras import backend as K
from tensorflow.python.keras.layers import CuDNNLSTM

from my_utils.read_write import pdReadCsv
import numpy as np

SINGLE_ATTENTION_VECTOR = False
import os
os.environ['CUDA_VISIBLE_DEVICES'] = '0'
os.environ["TF_KERAS"] = '1'

# 注意力機(jī)制
def attention_3d_block(inputs):
    input_dim = int(inputs.shape[2])
    a = inputs
    a = Dense(input_dim, activation='softmax')(a)
    # 根據(jù)給定的模式(dim)置換輸入的維度  例如(2,1)即置換輸入的第1和第2個(gè)維度
    a_probs = Permute((1, 2), name='attention_vec')(a)
    # Layer that multiplies (element-wise) a list of inputs.
    output_attention_mul = Multiply()([inputs, a_probs])
    return output_attention_mul

# 創(chuàng)建時(shí)序數(shù)據(jù)塊
def create_dataset(dataset, look_back):
    dataX, dataY = [], []
    for i in range(len(dataset) - look_back - 1):
        a = dataset[i:(i + look_back), :]
        dataX.append(a)
        dataY.append(dataset[i + look_back, :])
    TrainX = np.array(dataX)
    Train_Y = np.array(dataY)

    return TrainX, Train_Y

# 建立cnn-BiLSTM-并添加注意力機(jī)制
def attention_model():
    inputs = Input(shape=(TIME_STEPS, INPUT_DIMS))
    # 卷積層和dropout層
    x = Conv1D(filters=64, kernel_size=1, activation='relu')(inputs)  # , padding = 'same'
    x = Dropout(0.3)(x)
    # For GPU you can use CuDNNLSTM cpu LSTM
    lstm_out = Bidirectional(CuDNNLSTM(lstm_units, return_sequences=True))(x)
    lstm_out = Dropout(0.3)(lstm_out)
    attention_mul = attention_3d_block(lstm_out)
    # 用于將輸入層的數(shù)據(jù)壓成一維的數(shù)據(jù)嫁佳,一般用再卷積層和全連接層之間
    attention_mul = Flatten()(attention_mul)
    
    # output = Dense(1, activation='sigmoid')(attention_mul)  分類(lèi)
    output = Dense(1, activation='linear')(attention_mul)
    model = Model(inputs=[inputs], outputs=output)
    return model

# 歸一化
def fit_size(x, y):
    from sklearn import preprocessing
    x_MinMax = preprocessing.MinMaxScaler()
    y_MinMax = preprocessing.MinMaxScaler()
    x = x_MinMax.fit_transform(x)
    y = y_MinMax.fit_transform(y)
    return x, y, y_MinMax


def flatten(X):
    flattened_X = np.empty((X.shape[0], X.shape[2]))
    for i in range(X.shape[0]):
        flattened_X[i] = X[i, (X.shape[1] - 1), :]
    return (flattened_X)


src = r'E:\dat'
path = r'E:\dat'
trials_path = r'E:\dat'
train_path = src + r'merpre.csv'
df = pdReadCsv(train_path, ',')
df = df.replace("--", '0')
df.fillna(0, inplace=True)
INPUT_DIMS = 43
TIME_STEPS = 12
lstm_units = 64


def load_data(df_train):
    X_train = df_train.drop(['Per'], axis=1)
    y_train = df_train['wap'].values.reshape(-1, 1)
    return X_train, y_train, X_train, y_train


groups = df.groupby(['Per'])
for name, group in groups:
    X_train, y_train, X_test, y_test = load_data(group)
    # 歸一化
    train_x, train_y, train_y_MinMax = fit_size(X_train, y_train)
    test_x, test_y, test_y_MinMax = fit_size(X_test, y_test)

    train_X, _ = create_dataset(train_x, TIME_STEPS)
    _, train_Y = create_dataset(train_y, TIME_STEPS)
    print(train_X.shape, train_Y.shape)

    m = attention_model()
    m.summary()
    m.compile(loss='mae', optimizer='Adam', metrics=['mae'])
    model_path = r'me_pre\\'
    callbacks = [
        EarlyStopping(monitor='val_loss', patience=2, verbose=0),  # 當(dāng)兩次迭代損失未改善挨队,Keras停止訓(xùn)練
        ModelCheckpoint(model_path, monitor='val_loss', save_best_only=True, verbose=0),
    ]
    m.fit(train_X, train_Y, batch_size=32, epochs=111, shuffle=True, verbose=1,
          validation_split=0.1, callbacks=callbacks)
    # m.fit(train_X, train_Y, epochs=111, batch_size=32)
    test_X, _ = create_dataset(test_x, TIME_STEPS)
    _, test_Y = create_dataset(test_y, TIME_STEPS)

    pred_y = m.predict(test_X)
    inv_pred_y = test_y_MinMax.inverse_transform(pred_y)
    inv_test_Y = test_y_MinMax.inverse_transform(test_Y)
    mae = int(mean_absolute_error(inv_test_Y, inv_pred_y))
    print('test_mae : ', mae)
    mae = str(mae)
    print(name)
    m.save(
        model_path + name[0] + '_' + name[1] + '_' + name[2] + '_' + mae + '.h5')

需要數(shù)據(jù)和代碼代寫(xiě)請(qǐng)私聊,pytorch版本的也有蒿往,cnn+lstm+attention對(duì)時(shí)序數(shù)據(jù)進(jìn)行預(yù)測(cè)

其他類(lèi)似學(xué)習(xí)鏈接

參考論文:
基于CNN和LSTM的多通道注意力機(jī)制文本分類(lèi)模型

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市湿弦,隨后出現(xiàn)的幾起案子瓤漏,更是在濱河造成了極大的恐慌,老刑警劉巖颊埃,帶你破解...
    沈念sama閱讀 206,126評(píng)論 6 481
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件蔬充,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡班利,警方通過(guò)查閱死者的電腦和手機(jī)饥漫,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,254評(píng)論 2 382
  • 文/潘曉璐 我一進(jìn)店門(mén),熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)罗标,“玉大人庸队,你說(shuō)我怎么就攤上這事〈掣睿” “怎么了彻消?”我有些...
    開(kāi)封第一講書(shū)人閱讀 152,445評(píng)論 0 341
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)宙拉。 經(jīng)常有香客問(wèn)我宾尚,道長(zhǎng),這世上最難降的妖魔是什么谢澈? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 55,185評(píng)論 1 278
  • 正文 為了忘掉前任煌贴,我火速辦了婚禮御板,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘牛郑。我一直安慰自己稳吮,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 64,178評(píng)論 5 371
  • 文/花漫 我一把揭開(kāi)白布井濒。 她就那樣靜靜地躺著灶似,像睡著了一般。 火紅的嫁衣襯著肌膚如雪瑞你。 梳的紋絲不亂的頭發(fā)上酪惭,一...
    開(kāi)封第一講書(shū)人閱讀 48,970評(píng)論 1 284
  • 那天,我揣著相機(jī)與錄音者甲,去河邊找鬼春感。 笑死,一個(gè)胖子當(dāng)著我的面吹牛虏缸,可吹牛的內(nèi)容都是我干的鲫懒。 我是一名探鬼主播,決...
    沈念sama閱讀 38,276評(píng)論 3 399
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼刽辙,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼窥岩!你這毒婦竟也來(lái)了?” 一聲冷哼從身側(cè)響起宰缤,我...
    開(kāi)封第一講書(shū)人閱讀 36,927評(píng)論 0 259
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤颂翼,失蹤者是張志新(化名)和其女友劉穎,沒(méi)想到半個(gè)月后慨灭,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體朦乏,經(jīng)...
    沈念sama閱讀 43,400評(píng)論 1 300
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 35,883評(píng)論 2 323
  • 正文 我和宋清朗相戀三年氧骤,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了呻疹。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 37,997評(píng)論 1 333
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡筹陵,死狀恐怖刽锤,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情惶翻,我是刑警寧澤姑蓝,帶...
    沈念sama閱讀 33,646評(píng)論 4 322
  • 正文 年R本政府宣布,位于F島的核電站吕粗,受9級(jí)特大地震影響纺荧,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,213評(píng)論 3 307
  • 文/蒙蒙 一宙暇、第九天 我趴在偏房一處隱蔽的房頂上張望输枯。 院中可真熱鬧,春花似錦占贫、人聲如沸桃熄。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 30,204評(píng)論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)瞳收。三九已至,卻和暖如春厢汹,著一層夾襖步出監(jiān)牢的瞬間螟深,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 31,423評(píng)論 1 260
  • 我被黑心中介騙來(lái)泰國(guó)打工烫葬, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留界弧,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 45,423評(píng)論 2 352
  • 正文 我出身青樓搭综,卻偏偏與公主長(zhǎng)得像垢箕,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子兑巾,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 42,722評(píng)論 2 345

推薦閱讀更多精彩內(nèi)容