2021李宏毅機(jī)器學(xué)習(xí)課程作業(yè)一

作業(yè)背景

Covid-19病例預(yù)測(cè)。

數(shù)據(jù)格式為40個(gè)州(one-hot形式)+前三天的其他數(shù)據(jù)(每天18個(gè))档泽,總計(jì)93個(gè)feature匆篓。預(yù)測(cè)的目標(biāo)是第三天的病例數(shù)據(jù)。

作業(yè)來(lái)源:作業(yè)Slide

目標(biāo):

1. 初步學(xué)習(xí)運(yùn)用深度神經(jīng)網(wǎng)絡(luò)解決回歸問(wèn)題字支。

2. 了解深度神經(jīng)網(wǎng)絡(luò)的步驟。

3. 了解Pytorch的使用方法奸忽。

Simple Baseline

運(yùn)行給定的代碼就能夠達(dá)到Simple Baseline堕伪。

核心的步驟包括:

1. 加載numpy,torch栗菜,matplotlib等庫(kù)欠雌。注意需要指定模型的隨機(jī)種子來(lái)保證模型的可恢復(fù)性。

2. 數(shù)據(jù)預(yù)處理類(lèi)Covid19Dataset疙筹。根據(jù)不同的模式加載不同的數(shù)據(jù)富俄。例如訓(xùn)練模式下需要將數(shù)據(jù)按照k折交叉驗(yàn)證法分成訓(xùn)練數(shù)據(jù)和驗(yàn)證數(shù)據(jù)禁炒。在測(cè)試模式下,加載特定的測(cè)試數(shù)據(jù)霍比。之后需要用統(tǒng)一的Pytorch加載器包裝待處理數(shù)據(jù)幕袱。

3. 深度神經(jīng)網(wǎng)絡(luò)的構(gòu)造。構(gòu)造包含兩層全連接層的神經(jīng)網(wǎng)絡(luò)模型悠瞬。使用MSE作為回歸問(wèn)題的損失函數(shù)凹蜂。

4. 訓(xùn)練階段創(chuàng)建模型的實(shí)例并進(jìn)行迭代時(shí)訓(xùn)練。注意每次迭代都需要保存模型阁危。訓(xùn)練結(jié)束后玛痊,對(duì)模型Loss隨迭代次數(shù)的變化進(jìn)行可視化,用于選取更合適的迭代次數(shù)狂打。

5. 在驗(yàn)證集上進(jìn)行模型準(zhǔn)確率的分析驗(yàn)證擂煞。

6. 輸出保存測(cè)試集的結(jié)果,并在Kaggle上查看模型得分趴乡。

Simple Baseline測(cè)試效果

Medium Baseline

Medium Baseline要求選取更加有效的特征对省。具體為選擇40個(gè)州以及前兩天的陽(yáng)性病例特征用于訓(xùn)練。

class COVID19Dataset(Dataset):
        ''' Dataset for loading and preprocessing the COVID19 dataset '''
        if not target_only:
            feats = list(range(93))
        else:
            # Using 40 states & 2 tested_positive features (indices = 57 & 75)
            feats = list(range(40)) + [57, 75]
            pass
Medium Baseline測(cè)試效果

Strong Baseline

  1. 特征選擇
    這里選擇與Covid-19關(guān)系密切的幾個(gè)特征晾捏。也可以嘗試使用斯皮爾曼系數(shù)計(jì)算不同特征與預(yù)測(cè)目標(biāo)的相關(guān)性蒿涎,選取相關(guān)性大的那些特征。
特征 含義 是否選取
0-39 ?
cli 類(lèi)Covid-19病例 ?
ili 類(lèi)Covid-19病例 ?
hh_cmnty_cli 類(lèi)Covid-19病例 ?
nohh_cmnty_cli 類(lèi)Covid-19病例 ?
wearing_mask Covid-19相關(guān)行為
travel_outside_state Covid-19相關(guān)行為
work_outside_home Covid-19相關(guān)行為
shop Covid-19相關(guān)行為
restaurant Covid-19相關(guān)行為
spent_time Covid-19相關(guān)行為
large_event Covid-19相關(guān)行為
public_transit Covid-19相關(guān)行為
anxious 調(diào)查者情緒狀況
public_transit 調(diào)查者情緒狀況
depressed 調(diào)查者情緒狀況
felt_isolated 調(diào)查者情緒狀況
worried_become_ill 調(diào)查者情緒狀況
worried_finances 調(diào)查者情緒狀況
tested_positive 預(yù)測(cè)目標(biāo) ?
  1. 模型參數(shù)的選取
    激活函數(shù)以及損失函數(shù)的選取建議:
問(wèn)題類(lèi)型 最后一層激活函數(shù) 損失函數(shù)
二分類(lèi)問(wèn)題 sigmoid binary_crossentropy
多分類(lèi)惦辛、單標(biāo)簽問(wèn)題 softmax categorical_crossentropy
多分類(lèi)劳秋、多標(biāo)簽問(wèn)題 sigmoid binary_crossentropy
回歸到任意值 無(wú) MSE/RMSE
回歸到 0~1 范圍內(nèi)的值 sigmoid mse 或 binary_crossentropy

這里選擇RMSE作為損失函數(shù),因?yàn)樽罱KKaggle上的分?jǐn)?shù)就是通過(guò)RMSE計(jì)算得出胖齐。模型最終的參數(shù)為:

class NeuralNet(nn.Module):
    ''' A simple fully-connected deep neural network '''
    def __init__(self, input_dim):
        super(NeuralNet, self).__init__()
        self.net = nn.Sequential(
            nn.Linear(input_dim, 256),
            nn.ReLU(),
            nn.Linear(256, 128),
            nn.LeakyReLU(),
            nn.Linear(128, 1)
        )
        # Mean squared error loss
        self.criterion = nn.MSELoss(reduction='mean')
        
    def forward(self, x):
        return self.net(x).squeeze(1)
    # L2正則項(xiàng)
    def regularization(self, C):
        regular = 0
        for param in self.net.parameters():
            regular += torch.norm(param, 2)
        return C * regular
    def cal_loss(self, pred, target):
        # RMSE +  L1/L2 regularization
        return torch.sqrt(self.criterion(pred, target)) + self.regularization(0.15)
  1. L1/L2 Regularization
    L1/L2正則化都是防止過(guò)擬合的方式玻淑。正則化通過(guò)給損失增加模型懲罰項(xiàng)使模型的結(jié)構(gòu)化風(fēng)險(xiǎn)最小。這里以回歸問(wèn)題為例子呀伙,其中C為正則項(xiàng)系數(shù)(一般可以選擇10^3-10^4):

    • 正常的MSE
      Loss(x,y) = MSE(x,y)
    • L1正則化
      Loss(x,y) = MSE(x,y) + C \Sigma |w|
    • L2正則化
      Loss(x,y) = MSE(x,y) + C \Sigma w^2

    在Optimizer中补履,參數(shù)weight_decay表示使用L2正則化的系數(shù)C。

    總結(jié)剿另,L1正則化就是在loss function后邊所加正則項(xiàng)為L(zhǎng)1范數(shù)箫锤,加上L1范數(shù)容易得到稀疏解(0比較多)。L2正則化就是loss function后邊所加正則項(xiàng)為L(zhǎng)2范數(shù)的平方雨女,加上L2正則相比于L1正則來(lái)說(shuō)谚攒,得到的解比較平滑(不是稀疏),但是同樣能夠保證解中接近于0(但不是等于0戚篙,所以相對(duì)平滑)的維度比較多五鲫,降低模型的復(fù)雜度溺职。

  2. Dropout

    目的: Dropout可以比較有效的緩解過(guò)擬合的發(fā)生岔擂,在一定程度上達(dá)到正則化的效果位喂。

    操作:在前向傳播的時(shí)候,Dropout讓某個(gè)神經(jīng)元的激活值以一定的概率p停止工作乱灵,這樣可以使模型泛化性更強(qiáng)塑崖,因?yàn)樗粫?huì)太依賴(lài)某些局部的特征。

    具體流程:

    • 訓(xùn)練階段:
      讓某個(gè)神經(jīng)元以概率p停止工作痛倚,換句話(huà)說(shuō)是讓它的激活函數(shù)值以概率p變?yōu)?规婆。實(shí)現(xiàn)上就是以概率p的方式生成長(zhǎng)度與權(quán)重?cái)?shù)量相同的01數(shù)組從而隱藏部分權(quán)重。
    • 猜測(cè)階段:
      預(yù)測(cè)模型的時(shí)候蝉稳,每一個(gè)神經(jīng)單元的權(quán)重參數(shù)要乘以概率p抒蚜。目的是保持訓(xùn)練和測(cè)試數(shù)據(jù)的一致性。

    當(dāng)前Dropout被大量利用于全連接網(wǎng)絡(luò)耘戚,而且一般認(rèn)為設(shè)置為0.5或者0.3嗡髓,而在卷積網(wǎng)絡(luò)隱藏層中由于卷積自身的稀疏化以及稀疏化的ReLu函數(shù)的大量使用等原因,Dropout策略在卷積網(wǎng)絡(luò)隱藏層中使用較少收津《稣猓總體而言,Dropout是一個(gè)超參撞秋,需要根據(jù)具體的網(wǎng)絡(luò)长捧、具體的應(yīng)用領(lǐng)域進(jìn)行嘗試。

  3. 數(shù)據(jù)歸一化問(wèn)題

    進(jìn)行數(shù)據(jù)歸一化的原因:
    原則:樣本的所有特征吻贿,在特征空間中串结,對(duì)樣本的距離產(chǎn)生的影響是同級(jí)的;
    問(wèn)題:特征數(shù)字化后舅列,由于取值大小不同奉芦,造成特征空間中樣本點(diǎn)的距離會(huì)被個(gè)別特征值所主導(dǎo),而受其它特征的影響比較芯珲濉声功;

    歸一化的方法:

    • 最值歸一化
      norm(x) = \frac {(x - x_{min})} {(x_{max} - x_{min})}
    • 標(biāo)準(zhǔn)化
      regular(x) = \frac {x - x_{mean}} {x_{std}}
      這里需要注意的是對(duì)于測(cè)試集的標(biāo)準(zhǔn)化應(yīng)當(dāng)選取訓(xùn)練集的平均數(shù)與方差,原因是測(cè)試集可能很小宠叼,平均值和方差不能反映大量數(shù)據(jù)的特征先巴。這也是代碼示例中提到的問(wèn)題:
# Normalize features (you may remove this part to see what will happen)
self.data[:, 40:] = (self.data[:, 40:] - self.data[:, 40:].\
  mean(dim=0, keepdim=True)) / self.data[:, 40:].std(dim=0, keepdim=True)
# 正確的處理方法為,train_mean和train_std為全局變量
if mode == 'train':
      train_mean = self.data[:, 40:].mean(dim=0, keepdim=True)
      train_std = self.data[:, 40:].std(dim=0, keepdim=True)
 self.data[:, 40:] = (self.data[:, 40:] - train_mean) / train_std
  1. mini-batch

    mini-batch主要解決的問(wèn)題是:實(shí)際應(yīng)用時(shí)的訓(xùn)練數(shù)據(jù)往往都太大了冒冬,一次加載到電腦里可能內(nèi)存不夠伸蚯,其次運(yùn)行速度也很慢。mini-batch的思想就是將數(shù)據(jù)分批輸入神經(jīng)網(wǎng)絡(luò)中简烤,降低網(wǎng)絡(luò)的負(fù)載量剂邮,也能加快網(wǎng)絡(luò)的收斂速度。

    具體來(lái)說(shuō)横侦,將所有輸入數(shù)據(jù)分成固定大小的小批數(shù)據(jù)挥萌,每次訓(xùn)練只輸入小批數(shù)據(jù)绰姻。同時(shí),數(shù)據(jù)可以進(jìn)行打亂操作增加數(shù)據(jù)的隨機(jī)性提升網(wǎng)絡(luò)的學(xué)習(xí)能力引瀑。

  2. Optimizer

    優(yōu)化器是優(yōu)化梯度下降的特定算法狂芋,這邊簡(jiǎn)單介紹一下主流的優(yōu)化器算法。

優(yōu)化器 作用
BGD 原始的梯度下降算法憨栽,直接根據(jù)Loss更新權(quán)重帜矾。缺點(diǎn)是容易受到局部最優(yōu)點(diǎn)的影響
SGD 采用隨機(jī)的小樣本更新權(quán)重,增加更新次數(shù)屑柔,加快收斂速度屡萤。帶動(dòng)量的SGD考慮了上一次更新的權(quán)重,保證了每一次更新的梯度不為0從而逃離鞍點(diǎn)
AdaGrad 每次迭代不斷減小更新幅度learning\_rate = \frac {learning\_rate} {\sqrt {\Sigma dx ^ {2}}}
RMSprop 與AdaGrad不同掸宛,使用了衰減率更新的梯度 grad = decay\_rate * grad + (1-decay\_rate)*dx^2
Adam Adam使用momentum和Bias correction更新梯度灭衷,涉及的參數(shù)包括alpha和beta。Adam的下降速度比較快旁涤,應(yīng)用廣泛
  1. 最終實(shí)現(xiàn)

模型配置信息:

config = {
    'n_epochs': 3000, 
    'batch_size': 100, 
    'optimizer': 'SGD',  
    'optim_hparas': { 
        'lr': 0.001,  
        'momentum': 0.9              
    },
    'early_stop': 200,
    'save_path': 'models/model.pth'  
}

Kaggle上最終結(jié)果:


Strong baseline

Private 數(shù)據(jù)集沒(méi)有達(dá)到Strong baseline翔曲,模型方面可以繼續(xù)調(diào)優(yōu)。


參考文章

  1. 激活函數(shù)以及損失函數(shù)的選取
  2. 作業(yè)實(shí)現(xiàn)參考
  3. Dropout
  4. 回歸任務(wù)中的常見(jiàn)損失函數(shù)
  5. L1/L2正則化
  6. 數(shù)據(jù)歸一化問(wèn)題
  7. mini-batch
  8. 優(yōu)化器Optimizer
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末劈愚,一起剝皮案震驚了整個(gè)濱河市瞳遍,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌菌羽,老刑警劉巖掠械,帶你破解...
    沈念sama閱讀 222,865評(píng)論 6 518
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異注祖,居然都是意外死亡猾蒂,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 95,296評(píng)論 3 399
  • 文/潘曉璐 我一進(jìn)店門(mén)是晨,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)肚菠,“玉大人,你說(shuō)我怎么就攤上這事罩缴∥梅辏” “怎么了?”我有些...
    開(kāi)封第一講書(shū)人閱讀 169,631評(píng)論 0 364
  • 文/不壞的土叔 我叫張陵箫章,是天一觀的道長(zhǎng)烙荷。 經(jīng)常有香客問(wèn)我,道長(zhǎng)檬寂,這世上最難降的妖魔是什么终抽? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 60,199評(píng)論 1 300
  • 正文 為了忘掉前任,我火速辦了婚禮,結(jié)果婚禮上昼伴,老公的妹妹穿的比我還像新娘匾旭。我一直安慰自己,他們只是感情好亩码,可當(dāng)我...
    茶點(diǎn)故事閱讀 69,196評(píng)論 6 398
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著野瘦,像睡著了一般描沟。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上鞭光,一...
    開(kāi)封第一講書(shū)人閱讀 52,793評(píng)論 1 314
  • 那天吏廉,我揣著相機(jī)與錄音,去河邊找鬼惰许。 笑死席覆,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的汹买。 我是一名探鬼主播佩伤,決...
    沈念sama閱讀 41,221評(píng)論 3 423
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼晦毙!你這毒婦竟也來(lái)了生巡?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書(shū)人閱讀 40,174評(píng)論 0 277
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤见妒,失蹤者是張志新(化名)和其女友劉穎孤荣,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體须揣,經(jīng)...
    沈念sama閱讀 46,699評(píng)論 1 320
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡盐股,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,770評(píng)論 3 343
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了耻卡。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片疯汁。...
    茶點(diǎn)故事閱讀 40,918評(píng)論 1 353
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖卵酪,靈堂內(nèi)的尸體忽然破棺而出涛目,到底是詐尸還是另有隱情,我是刑警寧澤凛澎,帶...
    沈念sama閱讀 36,573評(píng)論 5 351
  • 正文 年R本政府宣布霹肝,位于F島的核電站,受9級(jí)特大地震影響塑煎,放射性物質(zhì)發(fā)生泄漏沫换。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 42,255評(píng)論 3 336
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望讯赏。 院中可真熱鬧垮兑,春花似錦、人聲如沸漱挎。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 32,749評(píng)論 0 25
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)磕谅。三九已至私爷,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間膊夹,已是汗流浹背衬浑。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 33,862評(píng)論 1 274
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留放刨,地道東北人工秩。 一個(gè)月前我還...
    沈念sama閱讀 49,364評(píng)論 3 379
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像进统,于是被迫代替她去往敵國(guó)和親助币。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,926評(píng)論 2 361

推薦閱讀更多精彩內(nèi)容