240 發(fā)簡(jiǎn)信
IP屬地:甘肅
  • 時(shí)間序列預(yù)測(cè)的評(píng)估指標(biāo)補(bǔ)遺

    本文鏈接:個(gè)人站 | 簡(jiǎn)書(shū) | CSDN版權(quán)聲明:除特別聲明外侵浸,本博客文章均采用 BY-NC-SA 許可協(xié)議藤肢。轉(zhuǎn)載請(qǐng)注明出處蚓土。 在《銷量預(yù)測(cè)中的誤差指標(biāo)分析》一文中趟妥,我們介紹...

  • 120
    Temporal Fusion Transformers for Interpretable Multi-horizon Time Series Forecasting

    摘要 多步(尺度)預(yù)測(cè)通常包含一個(gè)復(fù)雜的輸入組合——包括靜態(tài)(即時(shí)不變)協(xié)變量憾股、已知的未來(lái)輸入,以及其他僅在過(guò)去觀察到的外生時(shí)間序列——沒(méi)有任何關(guān)于它們?nèi)绾闻c目標(biāo)相互作用的先...

  • 120
  • 120
    詞嵌入Word Embedding

    傳統(tǒng)表達(dá):one-hot 將每個(gè)詞表示為一個(gè)長(zhǎng)長(zhǎng)的向量夏哭。詞袋:所有詞的不重復(fù)構(gòu)成检柬。 這樣做的缺陷:忽略了句子詞頻信息;面臨高維困境(文本維度隨著詞數(shù)變化而變化)竖配;忽略了詞語(yǔ)上...

  • 120
    RNN

    隱狀態(tài) 記憶儲(chǔ)存:h可以對(duì)序列數(shù)據(jù)提供特征何址,然后再轉(zhuǎn)化為輸出。 U进胯、W:權(quán)值矩陣用爪;b:偏置項(xiàng);f:激活函數(shù)胁镐,在RNN中一般使用tanh偎血。 一個(gè)箭頭表示對(duì)相應(yīng)的向量做一次類似于...

  • 120
    LSTM

    簡(jiǎn)介 在深度RNN中,由于多hidden layer盯漂,存在梯度爆炸和梯度消失的問(wèn)題颇玷。而停止學(xué)習(xí),RNN會(huì)忘記在長(zhǎng)序列中學(xué)習(xí)到的東西就缆,僅擁有短期記憶帖渠。 長(zhǎng)短期記憶網(wǎng)絡(luò)能夠?qū)W習(xí)長(zhǎng)...

  • 120
    關(guān)于CNN中的認(rèn)知補(bǔ)充

    卷積 在聽(tīng)沈華偉老師講授GCN中,他回顧了卷積操作违崇,也讓我對(duì)卷積更深的認(rèn)識(shí)阿弃。例如他有講到,卷積操作羞延,實(shí)質(zhì)上輸入數(shù)組與卷積核作“卷積操作”渣淳,這里的卷積操作并不是我最初認(rèn)識(shí)的。即...

  • CNN

    和BP網(wǎng)絡(luò)不同的是扣草,cnn的特點(diǎn)是權(quán)值共享(卷積核filter),并且不需要人工的特征分析颜屠。 在BP網(wǎng)絡(luò)中辰妙,我們使用的是全連接,即每層神經(jīng)元都會(huì)把各自權(quán)重分別的傳遞給下一層神...

  • 120
    tensorflow中keras.models()的使用總結(jié)

    初學(xué)者在調(diào)用keras時(shí)甫窟,不需要糾結(jié)于選擇tf.keras還是直接import keras密浑,現(xiàn)如今兩者沒(méi)有區(qū)別。從具體實(shí)現(xiàn)上來(lái)講粗井,Keras是TensorFlow的一個(gè)依賴(...

  • 120
    one-hot與啞變量(dummy variable)

    one-hot encoding 關(guān)于one-hot編碼的具體介紹尔破,可以參考我之前的一篇博客,博客地址:特征提取方法: one-hot 和 IF-IDF[http://www...

  • ROC曲線

    簡(jiǎn)介 受試者工作特征曲線(receiver operating characteristic curve浇衬,簡(jiǎn)稱ROC曲線)懒构,是比較兩個(gè)分類模型好壞的可視化工具。 作用 1.較...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品