pytorch做二分類,多分類以及回歸任務(wù)

【lightgbm/xgboost/nn代碼整理四】pytorch做二分類,多分類以及回歸任務(wù)

1.簡(jiǎn)介

本不打算整理pytorch代碼吭狡,因?yàn)樵跀?shù)據(jù)挖掘類比賽中沒有用過它尖殃,做圖像相關(guān)任務(wù)時(shí)用pytorch比較多。有個(gè)小哥提到讓整理一下划煮,就花了幾天時(shí)間整理了一份送丰,沒有很仔細(xì)調(diào)試過,有問題請(qǐng)讀者指出弛秋。下面將從數(shù)據(jù)處理器躏、網(wǎng)絡(luò)搭建和模型訓(xùn)練三個(gè)部分介紹。如果只是想要閱讀代碼蟹略,可直接移步到尾部鏈接登失。

2. 數(shù)據(jù)處理

參考上一節(jié)的數(shù)據(jù)處理

3.模型

pytorch 定義的mlp代碼如下:

class MLP(torch.nn.Module):
    def __init__(self, n_feature, n_hidden, n_output, dropout=0.5):
        super(MLP, self).__init__()
        self.dropout = torch.nn.Dropout(dropout)

        self.hidden_1 = torch.nn.Linear(n_feature, n_hidden)  # hidden layer
        self.bn1 = torch.nn.BatchNorm1d(n_hidden)

        self.hidden_2 = torch.nn.Linear(n_hidden, n_hidden//2)
        self.bn2 = torch.nn.BatchNorm1d(n_hidden//2)

        self.hidden_3 = torch.nn.Linear(n_hidden//2, n_hidden//4)  # hidden layer
        self.bn3 = torch.nn.BatchNorm1d(n_hidden//4)

        self.hidden_4 = torch.nn.Linear(n_hidden // 4, n_hidden // 8)  # hidden layer
        self.bn4 = torch.nn.BatchNorm1d(n_hidden // 8)

        self.out = torch.nn.Linear(n_hidden//8, n_output)  # output layer

    def forward(self, x):
        x = F.relu(self.hidden_1(x))  # activation function for hidden layer
        x = self.dropout(self.bn1(x))
        x = F.relu(self.hidden_2(x))  # activation function for hidden layer
        x = self.dropout(self.bn2(x))
        x = F.relu(self.hidden_3(x))  # activation function for hidden layer
        x = self.dropout(self.bn3(x))
        x = F.relu(self.hidden_4(x))  # activation function for hidden layer
        x = self.dropout(self.bn4(x))
        x = self.out(x)
        return x

定義的網(wǎng)路結(jié)構(gòu)和上一節(jié)keras中定義的一樣,同樣也添加了dropout層和bn層科乎。不同之處這個(gè)網(wǎng)絡(luò)最終的輸出都是線性輸出壁畸。

訓(xùn)練和預(yù)測(cè)

4.1 數(shù)據(jù)加載

pytorch是以tensor的形式加載數(shù)據(jù)贼急,需要將數(shù)據(jù)轉(zhuǎn)為tenser格式茅茂,如果有g(shù)pu處理器,并且安裝的也是gpu版本的pytorch,就可以使用gpu加速處理太抓,通過DataLoader來加載數(shù)據(jù)空闲,代碼如下。

x_test = np.array(test_X)
x_test = torch.tensor(x_test, dtype=torch.float)
if torch.cuda.is_available():
    x_test = x_test.cuda()
test = TensorDataset(x_test)
test_loader = DataLoader(test, batch_size=batch_size, shuffle=False)

4.2 訓(xùn)練

model = MLP(x_train.shape[1], 512, classes, dropout=0.3)
if torch.cuda.is_available():
    model = model.cuda()
    
optimizer = torch.optim.Adam(model.parameters(), lr=learning_rate, weight_decay=1e-5)
loss_fn = torch.nn.CrossEntropyLoss()  #多分類
#loss_fn = torch.nn.BCEWithLogitsLoss() #二分類
#loss_fn = torch.nn.L1Loss()   #回歸

y_pred = model(x_batch)
loss = loss_fn(y_pred, y_batch)
optimizer.zero_grad()       
loss.backward()             
optimizer.step()            

定義完網(wǎng)絡(luò)后走敌,如果存在GPU碴倾,則需要將model也添加上gpu。優(yōu)化函數(shù)同keras一樣掉丽,都含有adam,sgd等跌榔。損失函數(shù)針對(duì)不同問題有所不同,在代碼中已有標(biāo)注捶障,上面列出的分類任務(wù)都采用的是交叉熵?fù)p失函數(shù)僧须,集成了最后一層的激活函數(shù),如多分類的CrossEntropyLoss项炼,它已經(jīng)集成了softmax函數(shù)担平,且不需要對(duì)類別類別做onehot處理,直接輸入int值即可锭部。

  • optimizer.zero_grad():是為下一次訓(xùn)練清除梯度值
  • loss.backward()是反向傳播暂论,計(jì)算每個(gè)參數(shù)的梯度值
  • optimizer.step():是更新參數(shù)權(quán)重值包括,weights和biases

4.3 預(yù)測(cè)

在預(yù)測(cè)中eval()函數(shù)會(huì)自動(dòng)把BN和DropOut固定住拌禾,不會(huì)取平均取胎,而是用訓(xùn)練好的值。不然的話湃窍,一旦test的batch_size過小闻蛀,很容易就會(huì)被BN層導(dǎo)致生成圖片顏色失真極大摄杂。代碼如下

model.eval()
y_pred = model(x_batch)
test_preds_fold[i * batch_size:(i + 1) * batch_size] = y_pred.cpu().numpy()

由于計(jì)算的結(jié)果是tensor,需要轉(zhuǎn)為numpy循榆。

最終的結(jié)果轉(zhuǎn)化同keras一樣析恢,如二分類需要設(shè)定閾值。

代碼地址:data_mining_models

寫在最后

關(guān)注公號(hào):

AI成長(zhǎng)社

ML與DL的成長(zhǎng)圣地秧饮。
知乎專欄:ML與DL成長(zhǎng)之路

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末映挂,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子盗尸,更是在濱河造成了極大的恐慌柑船,老刑警劉巖,帶你破解...
    沈念sama閱讀 218,386評(píng)論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件泼各,死亡現(xiàn)場(chǎng)離奇詭異鞍时,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)扣蜻,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,142評(píng)論 3 394
  • 文/潘曉璐 我一進(jìn)店門逆巍,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人莽使,你說我怎么就攤上這事锐极。” “怎么了芳肌?”我有些...
    開封第一講書人閱讀 164,704評(píng)論 0 353
  • 文/不壞的土叔 我叫張陵灵再,是天一觀的道長(zhǎng)。 經(jīng)常有香客問我亿笤,道長(zhǎng)翎迁,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,702評(píng)論 1 294
  • 正文 為了忘掉前任净薛,我火速辦了婚禮汪榔,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘罕拂。我一直安慰自己揍异,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,716評(píng)論 6 392
  • 文/花漫 我一把揭開白布爆班。 她就那樣靜靜地躺著衷掷,像睡著了一般。 火紅的嫁衣襯著肌膚如雪柿菩。 梳的紋絲不亂的頭發(fā)上戚嗅,一...
    開封第一講書人閱讀 51,573評(píng)論 1 305
  • 那天,我揣著相機(jī)與錄音,去河邊找鬼懦胞。 笑死替久,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的躏尉。 我是一名探鬼主播蚯根,決...
    沈念sama閱讀 40,314評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼胀糜!你這毒婦竟也來了颅拦?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 39,230評(píng)論 0 276
  • 序言:老撾萬榮一對(duì)情侶失蹤教藻,失蹤者是張志新(化名)和其女友劉穎距帅,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體括堤,經(jīng)...
    沈念sama閱讀 45,680評(píng)論 1 314
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡碌秸,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,873評(píng)論 3 336
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了悄窃。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片讥电。...
    茶點(diǎn)故事閱讀 39,991評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖广匙,靈堂內(nèi)的尸體忽然破棺而出允趟,到底是詐尸還是另有隱情恼策,我是刑警寧澤鸦致,帶...
    沈念sama閱讀 35,706評(píng)論 5 346
  • 正文 年R本政府宣布,位于F島的核電站涣楷,受9級(jí)特大地震影響分唾,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜狮斗,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,329評(píng)論 3 330
  • 文/蒙蒙 一绽乔、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧碳褒,春花似錦折砸、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,910評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至摔寨,卻和暖如春去枷,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 33,038評(píng)論 1 270
  • 我被黑心中介騙來泰國(guó)打工删顶, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留竖螃,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 48,158評(píng)論 3 370
  • 正文 我出身青樓逗余,卻偏偏與公主長(zhǎng)得像特咆,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子录粱,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,941評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容