快速建立Pytorch的訓(xùn)練Pipline

記錄一下Pytorch構(gòu)建的通用,簡單的完整訓(xùn)練過程的代碼結(jié)構(gòu)译隘。
假定你已經(jīng)知道了簡單的神經(jīng)網(wǎng)絡(luò)原理粗恢。
在實際的項目中,需要按找需要在對應(yīng)模塊中增加功能片酝。

目錄

1.必要的導(dǎo)入包

2.Dataset準(zhǔn)備

3.模型構(gòu)建

4.Train/test過程

5.調(diào)用訓(xùn)練好的模型

1.必要的導(dǎo)入包

import torch
from torch import nn  #構(gòu)建神經(jīng)網(wǎng)絡(luò)的包
from torch.utils.data import DataLoader
from torchvision import datasets
from torchvision.transforms import ToTensor, Lambda, Compose

2.Dataset準(zhǔn)備
Pytorch中使用Dataset和Dataloader來處理模型數(shù)據(jù)囚衔。
Dataset是原始的訓(xùn)練數(shù)據(jù)在python中的對象。
Dataloader是針對于Datset的遍歷器雕沿,在訓(xùn)練過程中也負(fù)責(zé)提供每個Batch的數(shù)據(jù)练湿。

本例中使用Pytorch自帶的FashionMNIST數(shù)據(jù)集,第一次運行程序會自動下載审轮。

#對應(yīng)的包
from torch.utils.data import DataLoader
from torchvision import datasets   #以pytorch中 CV任務(wù)的自帶數(shù)據(jù)集為例

#構(gòu)建train和test 數(shù)據(jù)集的例子
training_data = datasets.FashionMNIST(
    root="data",
    train = True,
    download= True,
    transform=ToTensor(),
)

test_data = datasets.FashionMNIST(
    root="data",
    train = False,
    download= True,
    transform=ToTensor(),
)

#構(gòu)建兩個Dataloader用來讀取數(shù)據(jù)
batch_size=64
train_dataloader = DataLoader(training_data,batch_size=batch_size)
test_dataloader = DataLoader(test_data,batch_size=batch_size)

3.模型構(gòu)建
模型構(gòu)建一般構(gòu)建一個Class肥哎,定義好模型的各層以及相關(guān)參數(shù)辽俗,構(gòu)建Forward函數(shù)用來做前向傳播。

from torch import nn

class NeuralNetwork(nn.Module):
    def __init__(self):
        super(NeuralNetwork,self).__init__()
        self.flatten = nn.Flatten()
        self.linear_relu_stack = nn.Sequential(
            nn.Linear(28*28, 512),
            nn.ReLU(),
            nn.Linear(512, 512),
            nn.ReLU(),
            nn.Linear(512, 10),
            nn.ReLU()
        )

    def forward(self,x):
        x = self.flatten(x)
        logits = self.linear_relu_stack(x)
        return logits

4.Train/test過程
一般也是程序的Main函數(shù)篡诽。一般要進行:
設(shè)備的初始化崖飘,各類參數(shù)的初始化,訓(xùn)練模型的實例化杈女,以及實際訓(xùn)練和測試過程的進行朱浴。

from torch import nn
import torch

#設(shè)備的初始化
device = "cuda" if torch.cuda.is_available() else "cpu"
print("Using {} device", format(device))

#模型實例化,lossfunction,優(yōu)化函數(shù)的定義碧信,
model = NeuralNetwork().to(device)
loss_fn = nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(model.parameters(), lr=1e-3)

#訓(xùn)練過程的函數(shù)定義
def train(dataloader, model, loss_fn, optimizer):
    size = len(dataloader.dataset)
    for batch, (X,y) in enumerate(dataloader):
        X, y = X.to(device), y.to(device)

        #compute prediction error
        pred = model(X)
        loss = loss_fn(pred, y)

        #back propagation
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

        if batch%100 == 0:
            loss, current = loss.item(), batch*len(X)
            print(f"loss:{loss:>7f} [{current:>5d}/{size:>5d}]")

#測試過程的函數(shù)的定義
def test(dataloader, model, loss_fn):
    size = len(dataloader.dataset)
    num_batches = len(dataloader)
    model.eval()
    test_loss, correct = 0, 0
    with torch.no_grad():
        for X, y in dataloader:
            X, y = X.to(device), y.to(device)
            pred = model(X)
            test_loss = loss_fn(pred, y)
            correct += (pred.argmax(1) == y).type(torch.float).sum().item()

    test_loss /= num_batches
    correct /= size
    print(f"Test Error: \n Accuracy: {(100*correct):>0.1f}%, avg loss: {test_loss:>8f} \n")

#主函數(shù)赊琳,定義訓(xùn)練的epoch,調(diào)用函數(shù)進行訓(xùn)練和測試
epochs = 5
for t in range(epochs):
    train(train_dataloader,model,loss_fn,optimizer)
    test(test_dataloader, model, loss_fn)
    print(f"Epoch {t+1}\n")

#保存模型
torch.save(model.state_dict(), "model.pth")

5.調(diào)用訓(xùn)練好的模型

#加載訓(xùn)練好的模型
model = NeuralNetwork()
model.load_state_dict(torch.load("model.pth"))

#預(yù)測標(biāo)簽
classes = [
    "T-shirt/top",
    "Trouser",
    "Pullover",
    "Dress",
    "Coat",
    "Sandal",
    "Shirt",
    "Sneaker",
    "Bag",
    "Ankle boot",
]

#測試模式
model.eval()

#測試過程
X,y = test_data[0][0], test_data[0][1]
with torch.no_grad():
    pred = model(X)
    predicted, actual = classes[pred[0].argmax(0)], classes[y]
    print(f'Predicted: "{predicted}", Actual:"{actual}"')

以上部分代碼按照功能劃分砰碴,僅保留了最重要的部分躏筏,實際項目中的代碼必然更為復(fù)雜和詳細(xì)。
可以按照需要和功能呈枉,將不同的代碼塊放到不同的py文件中趁尼,使用時導(dǎo)入調(diào)用即可。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末猖辫,一起剝皮案震驚了整個濱河市酥泞,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌啃憎,老刑警劉巖芝囤,帶你破解...
    沈念sama閱讀 218,036評論 6 506
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異辛萍,居然都是意外死亡悯姊,警方通過查閱死者的電腦和手機,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,046評論 3 395
  • 文/潘曉璐 我一進店門贩毕,熙熙樓的掌柜王于貴愁眉苦臉地迎上來悯许,“玉大人,你說我怎么就攤上這事辉阶∠群荆” “怎么了?”我有些...
    開封第一講書人閱讀 164,411評論 0 354
  • 文/不壞的土叔 我叫張陵谆甜,是天一觀的道長垃僚。 經(jīng)常有香客問我,道長规辱,這世上最難降的妖魔是什么谆棺? 我笑而不...
    開封第一講書人閱讀 58,622評論 1 293
  • 正文 為了忘掉前任,我火速辦了婚禮按摘,結(jié)果婚禮上包券,老公的妹妹穿的比我還像新娘纫谅。我一直安慰自己,他們只是感情好溅固,可當(dāng)我...
    茶點故事閱讀 67,661評論 6 392
  • 文/花漫 我一把揭開白布付秕。 她就那樣靜靜地躺著,像睡著了一般侍郭。 火紅的嫁衣襯著肌膚如雪询吴。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,521評論 1 304
  • 那天亮元,我揣著相機與錄音猛计,去河邊找鬼。 笑死爆捞,一個胖子當(dāng)著我的面吹牛奉瘤,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播煮甥,決...
    沈念sama閱讀 40,288評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼盗温,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了成肘?” 一聲冷哼從身側(cè)響起卖局,我...
    開封第一講書人閱讀 39,200評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎双霍,沒想到半個月后砚偶,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,644評論 1 314
  • 正文 獨居荒郊野嶺守林人離奇死亡洒闸,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,837評論 3 336
  • 正文 我和宋清朗相戀三年染坯,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片顷蟀。...
    茶點故事閱讀 39,953評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡酒请,死狀恐怖骡技,靈堂內(nèi)的尸體忽然破棺而出鸣个,到底是詐尸還是另有隱情,我是刑警寧澤布朦,帶...
    沈念sama閱讀 35,673評論 5 346
  • 正文 年R本政府宣布囤萤,位于F島的核電站,受9級特大地震影響是趴,放射性物質(zhì)發(fā)生泄漏涛舍。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 41,281評論 3 329
  • 文/蒙蒙 一唆途、第九天 我趴在偏房一處隱蔽的房頂上張望富雅。 院中可真熱鬧掸驱,春花似錦、人聲如沸没佑。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,889評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽蛤奢。三九已至鬼癣,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間啤贩,已是汗流浹背待秃。 一陣腳步聲響...
    開封第一講書人閱讀 33,011評論 1 269
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留痹屹,地道東北人章郁。 一個月前我還...
    沈念sama閱讀 48,119評論 3 370
  • 正文 我出身青樓,卻偏偏與公主長得像志衍,于是被迫代替她去往敵國和親驱犹。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 44,901評論 2 355

推薦閱讀更多精彩內(nèi)容