8. 網(wǎng)絡(luò)訓(xùn)練過程 2022-10-01

創(chuàng)建一個網(wǎng)絡(luò)

建立一個簡單的三層的網(wǎng)絡(luò)麦萤。

import torch
from torch import nn
from torch.utils.data import DataLoader
from torchvision import datasets
from torchvision.transforms import ToTensor, Lambda

training_data = datasets.FashionMNIST(
    root="data",
    train=True,
    download=True,
    transform=ToTensor()
)

test_data = datasets.FashionMNIST(
    root="data",
    train=False,
    download=True,
    transform=ToTensor()
)

train_dataloader = DataLoader(training_data, batch_size=64)
test_dataloader = DataLoader(test_data, batch_size=64)

class NeuralNetwork(nn.Module):
    def __init__(self):
        super(NeuralNetwork, self).__init__()
        self.flatten = nn.Flatten()
        self.linear_relu_stack = nn.Sequential(
            nn.Linear(28*28, 512),
            nn.ReLU(),
            nn.Linear(512, 512),
            nn.ReLU(),
            nn.Linear(512, 10),
        )

    def forward(self, x):
        x = self.flatten(x)
        logits = self.linear_relu_stack(x)
        return logits

model = NeuralNetwork()

給出網(wǎng)絡(luò)參數(shù)

learning_rate = 1e-3  #學(xué)習(xí)率杖小,每次沿梯度方向前進(jìn)步長
batch_size = 64  #每次跟新梯度的數(shù)據(jù)數(shù)
epochs = 5 #總訓(xùn)練迭代次數(shù)

損失函數(shù)

常見的順勢函數(shù)為:

nn.MSELoss : Mean Square Error
nn.NLLoss : Negative Log Likelihood
nn.CrossEntropyLoss: nnLogSoftmax + nn.NLLLoss

# Initialize the loss function
loss_fn = nn.CrossEntropyLoss()

優(yōu)化器

optimizer表示網(wǎng)絡(luò)使用何種方法(這里主要涉及梯度和學(xué)習(xí)率)更新網(wǎng)絡(luò)參數(shù)的過程韧掩,常用的梯度更新方式有:

SGD: 隨機(jī)梯度下降法(stochatic gradient decent)
ADAM: 考慮動量的梯度方法
RMSProp:

詳情可參見官方說明: https://pytorch.org/docs/stable/optim.html
一篇非常好的介紹各種梯度方法的博客: https://ruder.io/optimizing-gradient-descent/index.html#adam

optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)

在每個優(yōu)化循環(huán)中主要包含如下三步:

optimizer.zero_grad(): 清空梯度累計
loss.backward(): 方向傳播遗菠,使用loss函數(shù)累計梯度(累積和batch有關(guān)系)
optimizer.step(): 使用累計的梯度,更新參數(shù)

完整的訓(xùn)練過程

定義一個train_loop()函數(shù)進(jìn)行網(wǎng)絡(luò)訓(xùn)練
定一個test_loop()函數(shù)反饋網(wǎng)絡(luò)預(yù)測結(jié)果
相關(guān)函數(shù)定義如下:

def train_loop(dataloader, model, loss_fn, optimizer):
    size = len(dataloader.dataset)
    for batch, (X, y) in enumerate(dataloader):
        # Compute prediction and loss
        pred = model(X)
        loss = loss_fn(pred, y)

        # Backpropagation
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

        if batch % 100 == 0:
            loss, current = loss.item(), batch * len(X)
            print(f"loss: {loss:>7f}  [{current:>5d}/{size:>5d}]")


def test_loop(dataloader, model, loss_fn):
    size = len(dataloader.dataset)
    num_batches = len(dataloader)
    test_loss, correct = 0, 0

    with torch.no_grad():
        for X, y in dataloader:
            pred = model(X)
            test_loss += loss_fn(pred, y).item()
            correct += (pred.argmax(1) == y).type(torch.float).sum().item()

    test_loss /= num_batches
    correct /= size
    print(f"Test Error: \n Accuracy: {(100*correct):>0.1f}%, Avg loss: {test_loss:>8f} \n")

一個完整的訓(xùn)練啊犬,優(yōu)化過程:

loss_fn = nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)

epochs = 10
for t in range(epochs):
    print(f"Epoch {t+1}\n-------------------------------")
    train_loop(train_dataloader, model, loss_fn, optimizer)
    test_loop(test_dataloader, model, loss_fn)
print("Done!")

訓(xùn)練結(jié)果的載入和保存

torch 在網(wǎng)絡(luò)完成訓(xùn)練后虎锚,可以將網(wǎng)絡(luò)參數(shù)以字典( .state_dict() )的形式保存為.pth文件。

import torch
import torchvision.models as models

model = models.vgg16(pretrained=True)
torch.save(model.state_dict(), 'model_weights.pth')

同樣也可以講一訓(xùn)練好的網(wǎng)絡(luò)參數(shù)導(dǎo)入:

model = models.vgg16() # we do not specify pretrained=True, i.e. do not load default weights
model.load_state_dict(torch.load('model_weights.pth'))
model.eval()

保存網(wǎng)絡(luò)模型結(jié)構(gòu)

torch.save(model, 'model.pth')

載入網(wǎng)絡(luò)模型結(jié)構(gòu)

model = torch.load('model.pth')
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末朴乖,一起剝皮案震驚了整個濱河市祖屏,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌买羞,老刑警劉巖袁勺,帶你破解...
    沈念sama閱讀 222,627評論 6 517
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異畜普,居然都是意外死亡期丰,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 95,180評論 3 399
  • 文/潘曉璐 我一進(jìn)店門漠嵌,熙熙樓的掌柜王于貴愁眉苦臉地迎上來咐汞,“玉大人盖呼,你說我怎么就攤上這事儒鹿。” “怎么了几晤?”我有些...
    開封第一講書人閱讀 169,346評論 0 362
  • 文/不壞的土叔 我叫張陵约炎,是天一觀的道長。 經(jīng)常有香客問我蟹瘾,道長圾浅,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 60,097評論 1 300
  • 正文 為了忘掉前任憾朴,我火速辦了婚禮狸捕,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘众雷。我一直安慰自己灸拍,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 69,100評論 6 398
  • 文/花漫 我一把揭開白布砾省。 她就那樣靜靜地躺著鸡岗,像睡著了一般。 火紅的嫁衣襯著肌膚如雪编兄。 梳的紋絲不亂的頭發(fā)上轩性,一...
    開封第一講書人閱讀 52,696評論 1 312
  • 那天,我揣著相機(jī)與錄音狠鸳,去河邊找鬼揣苏。 笑死悯嗓,一個胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的卸察。 我是一名探鬼主播绅作,決...
    沈念sama閱讀 41,165評論 3 422
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼蛾派!你這毒婦竟也來了俄认?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 40,108評論 0 277
  • 序言:老撾萬榮一對情侶失蹤洪乍,失蹤者是張志新(化名)和其女友劉穎眯杏,沒想到半個月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體壳澳,經(jīng)...
    沈念sama閱讀 46,646評論 1 319
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡岂贩,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,709評論 3 342
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了巷波。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片萎津。...
    茶點(diǎn)故事閱讀 40,861評論 1 353
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖抹镊,靈堂內(nèi)的尸體忽然破棺而出锉屈,到底是詐尸還是另有隱情,我是刑警寧澤垮耳,帶...
    沈念sama閱讀 36,527評論 5 351
  • 正文 年R本政府宣布颈渊,位于F島的核電站,受9級特大地震影響终佛,放射性物質(zhì)發(fā)生泄漏俊嗽。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 42,196評論 3 336
  • 文/蒙蒙 一铃彰、第九天 我趴在偏房一處隱蔽的房頂上張望绍豁。 院中可真熱鬧,春花似錦牙捉、人聲如沸竹揍。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,698評論 0 25
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽鬼佣。三九已至,卻和暖如春霜浴,著一層夾襖步出監(jiān)牢的瞬間晶衷,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 33,804評論 1 274
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留晌纫,地道東北人税迷。 一個月前我還...
    沈念sama閱讀 49,287評論 3 379
  • 正文 我出身青樓,卻偏偏與公主長得像锹漱,于是被迫代替她去往敵國和親箭养。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,860評論 2 361