記錄一下Pytorch構(gòu)建的通用,簡單的完整訓(xùn)練過程的代碼結(jié)構(gòu)译隘。
假定你已經(jīng)知道了簡單的神經(jīng)網(wǎng)絡(luò)原理粗恢。
在實際的項目中,需要按找需要在對應(yīng)模塊中增加功能片酝。
目錄
1.必要的導(dǎo)入包
2.Dataset準(zhǔn)備
3.模型構(gòu)建
4.Train/test過程
5.調(diào)用訓(xùn)練好的模型
1.必要的導(dǎo)入包
import torch
from torch import nn #構(gòu)建神經(jīng)網(wǎng)絡(luò)的包
from torch.utils.data import DataLoader
from torchvision import datasets
from torchvision.transforms import ToTensor, Lambda, Compose
2.Dataset準(zhǔn)備
Pytorch中使用Dataset和Dataloader來處理模型數(shù)據(jù)囚衔。
Dataset是原始的訓(xùn)練數(shù)據(jù)在python中的對象。
Dataloader是針對于Datset的遍歷器雕沿,在訓(xùn)練過程中也負(fù)責(zé)提供每個Batch的數(shù)據(jù)练湿。
本例中使用Pytorch自帶的FashionMNIST數(shù)據(jù)集,第一次運行程序會自動下載审轮。
#對應(yīng)的包
from torch.utils.data import DataLoader
from torchvision import datasets #以pytorch中 CV任務(wù)的自帶數(shù)據(jù)集為例
#構(gòu)建train和test 數(shù)據(jù)集的例子
training_data = datasets.FashionMNIST(
root="data",
train = True,
download= True,
transform=ToTensor(),
)
test_data = datasets.FashionMNIST(
root="data",
train = False,
download= True,
transform=ToTensor(),
)
#構(gòu)建兩個Dataloader用來讀取數(shù)據(jù)
batch_size=64
train_dataloader = DataLoader(training_data,batch_size=batch_size)
test_dataloader = DataLoader(test_data,batch_size=batch_size)
3.模型構(gòu)建
模型構(gòu)建一般構(gòu)建一個Class肥哎,定義好模型的各層以及相關(guān)參數(shù)辽俗,構(gòu)建Forward函數(shù)用來做前向傳播。
from torch import nn
class NeuralNetwork(nn.Module):
def __init__(self):
super(NeuralNetwork,self).__init__()
self.flatten = nn.Flatten()
self.linear_relu_stack = nn.Sequential(
nn.Linear(28*28, 512),
nn.ReLU(),
nn.Linear(512, 512),
nn.ReLU(),
nn.Linear(512, 10),
nn.ReLU()
)
def forward(self,x):
x = self.flatten(x)
logits = self.linear_relu_stack(x)
return logits
4.Train/test過程
一般也是程序的Main函數(shù)篡诽。一般要進行:
設(shè)備的初始化崖飘,各類參數(shù)的初始化,訓(xùn)練模型的實例化杈女,以及實際訓(xùn)練和測試過程的進行朱浴。
from torch import nn
import torch
#設(shè)備的初始化
device = "cuda" if torch.cuda.is_available() else "cpu"
print("Using {} device", format(device))
#模型實例化,lossfunction,優(yōu)化函數(shù)的定義碧信,
model = NeuralNetwork().to(device)
loss_fn = nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(model.parameters(), lr=1e-3)
#訓(xùn)練過程的函數(shù)定義
def train(dataloader, model, loss_fn, optimizer):
size = len(dataloader.dataset)
for batch, (X,y) in enumerate(dataloader):
X, y = X.to(device), y.to(device)
#compute prediction error
pred = model(X)
loss = loss_fn(pred, y)
#back propagation
optimizer.zero_grad()
loss.backward()
optimizer.step()
if batch%100 == 0:
loss, current = loss.item(), batch*len(X)
print(f"loss:{loss:>7f} [{current:>5d}/{size:>5d}]")
#測試過程的函數(shù)的定義
def test(dataloader, model, loss_fn):
size = len(dataloader.dataset)
num_batches = len(dataloader)
model.eval()
test_loss, correct = 0, 0
with torch.no_grad():
for X, y in dataloader:
X, y = X.to(device), y.to(device)
pred = model(X)
test_loss = loss_fn(pred, y)
correct += (pred.argmax(1) == y).type(torch.float).sum().item()
test_loss /= num_batches
correct /= size
print(f"Test Error: \n Accuracy: {(100*correct):>0.1f}%, avg loss: {test_loss:>8f} \n")
#主函數(shù)赊琳,定義訓(xùn)練的epoch,調(diào)用函數(shù)進行訓(xùn)練和測試
epochs = 5
for t in range(epochs):
train(train_dataloader,model,loss_fn,optimizer)
test(test_dataloader, model, loss_fn)
print(f"Epoch {t+1}\n")
#保存模型
torch.save(model.state_dict(), "model.pth")
5.調(diào)用訓(xùn)練好的模型
#加載訓(xùn)練好的模型
model = NeuralNetwork()
model.load_state_dict(torch.load("model.pth"))
#預(yù)測標(biāo)簽
classes = [
"T-shirt/top",
"Trouser",
"Pullover",
"Dress",
"Coat",
"Sandal",
"Shirt",
"Sneaker",
"Bag",
"Ankle boot",
]
#測試模式
model.eval()
#測試過程
X,y = test_data[0][0], test_data[0][1]
with torch.no_grad():
pred = model(X)
predicted, actual = classes[pred[0].argmax(0)], classes[y]
print(f'Predicted: "{predicted}", Actual:"{actual}"')
以上部分代碼按照功能劃分砰碴,僅保留了最重要的部分躏筏,實際項目中的代碼必然更為復(fù)雜和詳細(xì)。
可以按照需要和功能呈枉,將不同的代碼塊放到不同的py文件中趁尼,使用時導(dǎo)入調(diào)用即可。