針對本次任務(wù)中遇到的問題丹墨,進行一些資料的補充。 針對xgb等模型的理解 lightgbm,xgboost,gbdt的區(qū)別與聯(lián)系 LR和樹模型基礎(chǔ)...
數(shù)據(jù)探索在機器學習中我們一般稱為EDA(Exploratory Data Analysis): 是指對已有的數(shù)據(jù)(特別是調(diào)查或觀察得來的原始數(shù)據(jù)...
文本分類 使用雙向循環(huán)神經(jīng)網(wǎng)絡(luò) 使用卷積神經(jīng)網(wǎng)絡(luò)->TextCNN TextCNN 模型主要使用了一維卷積層和時序最大池化層。假設(shè)輸入的文本序列...
優(yōu)化算法進階 ill-conditioned problem Condition Number of Hessian Matrix: cond_...
批量歸一化和殘差網(wǎng)絡(luò) 為什么要做標準化處理 深層神經(jīng)網(wǎng)絡(luò)中富岳,中間某一層的輸入是其之前的神經(jīng)層的輸出。因此,其之前的神經(jīng)層的參數(shù)變化會導(dǎo)致其輸入的...
卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ) 二維互相關(guān)運算 二維互相關(guān)(cross-correlation)運算的輸入是一個二維輸入數(shù)組和一個二維核(kernel)數(shù)組,...
機器翻譯及相關(guān)技術(shù) 特征 主要特征:輸出是單詞序列而不是單個單詞拷泽。 輸出序列的長度可能與源序列的長度不同。 encoder-decoder 針對...
過擬合袖瞻、欠擬合及其解決方案 訓(xùn)練集和測試集 測試數(shù)據(jù)集不可以用來調(diào)整模型參數(shù)司致,如果使用測試數(shù)據(jù)集調(diào)整模型參數(shù),可能在測試數(shù)據(jù)集上發(fā)生一定程度的過...
文本預(yù)處理 建立字典 記一個文本預(yù)處理需要用到的字典聋迎,學習一下python 語言模型 n元語法和馬爾可夫假設(shè) 馬爾可夫假設(shè):一個詞的出現(xiàn)只與前面...