PyTorch:深度學(xué)習(xí)框架,神經(jīng)網(wǎng)絡(luò)界的Numpy卵迂。所以PyTorch的使用方式基本與Numpy一致裕便。
Tensor:PyTorch的核心,與Numpy最大的不同见咒。將一個(gè)變量聲明為T(mén)ensor闪金,才能在神經(jīng)網(wǎng)絡(luò)中自動(dòng)求導(dǎo),并且使用GPU论颅。
計(jì)算圖:用tensor構(gòu)建計(jì)算圖哎垦,但是只有用戶提交的tensor數(shù)據(jù)是葉子節(jié)點(diǎn),中間運(yùn)算產(chǎn)生的tensor不是葉子節(jié)點(diǎn)恃疯。只有葉子節(jié)點(diǎn)在反向傳播的時(shí)候有梯度漏设。梯度會(huì)累加,所以每次循環(huán)的時(shí)候都要把梯度重置今妄。
PyTorch構(gòu)建神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)需要包括5個(gè)部分郑口。
- 數(shù)據(jù)
- 模型
- 損失函數(shù)
- 優(yōu)化器
- 迭代訓(xùn)練
1. 數(shù)據(jù):Dataset,Dataloader
Dataset定義了數(shù)據(jù)的來(lái)源盾鳞,包括數(shù)據(jù)的讀取目錄犬性,返回結(jié)果和圖像變換。建立dataset后交給Dataloader腾仅。
Dataloader定義了數(shù)據(jù)的加載方式乒裆,報(bào)告batch大小,是否打亂等推励。
加載圖片可以使用torchvision中的dataset鹤耍,返回圖片和標(biāo)簽名。
import torchvision
from torchvision import datasets, models, transforms
data_transforms = {
'train': transforms.Compose([
transforms.RandomResizedCrop(224),
transforms.RandomHorizontalFlip(),
transforms.ToTensor(),
transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
]),
'val': transforms.Compose([
transforms.Resize(256),
transforms.CenterCrop(224),
transforms.ToTensor(),
transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
]),
}
data_dir = 'data/hymenoptera_data'
image_datasets = {x: datasets.ImageFolder(os.path.join(data_dir, x),
data_transforms[x])
for x in ['train', 'val']}
dataloaders = {x: torch.utils.data.DataLoader(image_datasets[x], batch_size=4,
shuffle=True, num_workers=4)
for x in ['train', 'val']}
dataset_sizes = {x: len(image_datasets[x]) for x in ['train', 'val']}
class_names = image_datasets['train'].classes
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
如果有需要验辞,可以自定義dataset稿黄,比如不光返回圖片,還返回文件名跌造。
class MyDataset(Dataset):
def __init__(self, root_dir, transform=None):
self.root_dir = root_dir
self.transform = transform
self.size = 0
self.names_list = []
if not os.path.isdir(self.root_dir):
print(self.root_dir + 'does not exist!')
self.names_list = os.listdir(self.root_dir)
self.size = self.names_list.__len__()
def __len__(self):
return self.size
def __getitem__(self, idx):
image_path = os.path.join(self.root_dir, self.names_list[idx])
if not os.path.isfile(image_path):
print(image_path + 'does not exist!')
return None
# image = io.imread(image_path) # use skitimage
image = Image.open(image_path) # use pil
name = self.names_list[idx]
if self.transform:
sample = {'image': self.transform(image), 'name':name}
else:
sample = {'image': image, 'name': name}
return sample
2. 模型
定義網(wǎng)絡(luò)結(jié)構(gòu)和前向傳播杆怕。
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.conv1 = nn.Conv2d(1, 6, 5)
self.pool = nn.MaxPool2d(2, 2)
self.conv2 = nn.Conv2d(6, 16, 5)
self.fc1 = nn.Linear(16 * 4 * 4, 120)
self.fc2 = nn.Linear(120, 84)
self.fc3 = nn.Linear(84, 10)
def forward(self, x):
x = self.pool(F.relu(self.conv1(x)))
x = self.pool(F.relu(self.conv2(x)))
x = x.view(-1, 16 * 4 * 4)
x = F.relu(self.fc1(x))
x = F.relu(self.fc2(x))
x = self.fc3(x)
return x
net = Net()
3. 損失函數(shù)
損失函數(shù)就是計(jì)算模型輸出結(jié)果和真實(shí)值的差距,可以直接計(jì)算向量距離,就是nn.MSELoss陵珍。
現(xiàn)在一般用交叉熵nn.CrossEntropyLoss()寝杖。
import torch.nn as nn
criterion = nn.CrossEntropyLoss()
4. 優(yōu)化器
當(dāng)?shù)玫搅薒oss值,就可以反向傳播得到梯度撑教,有了梯度該怎么對(duì)權(quán)值進(jìn)行更新朝墩,就是優(yōu)化器的工作醉拓。
SGD是最基礎(chǔ)的優(yōu)化器伟姐,最慢但是不會(huì)出問(wèn)題。之后有很多優(yōu)化亿卤,現(xiàn)在可以考慮Adam愤兵。
import torch.optim as optim
optimizer = optim.SGD(net.parameters(), lr=LR, momentum=0.9) # 選擇優(yōu)化器
scheduler = torch.optim.lr_scheduler.StepLR(optimizer, step_size=10, gamma=0.1) # 設(shè)置學(xué)習(xí)率下降策略
5. 迭代訓(xùn)練
迭代時(shí)要重置梯度,計(jì)算loss排吴,反向傳播秆乳,更新優(yōu)化器。如果學(xué)習(xí)率有更新策略的話還有更新學(xué)習(xí)率钻哩。
for epoch in range(MAX_EPOCH):
loss_mean = 0.
correct = 0.
total = 0.
net.train()
for i, data in enumerate(train_loader):
# forward
inputs, labels = data
outputs = net(inputs)
# backward
optimizer.zero_grad()
loss = criterion(outputs, labels)
loss.backward()
# update weights
optimizer.step()
# 統(tǒng)計(jì)分類情況
_, predicted = torch.max(outputs.data, 1)
total += labels.size(0)
correct += (predicted == labels).squeeze().sum().numpy()
# 打印訓(xùn)練信息
loss_mean += loss.item()
train_curve.append(loss.item())
if (i+1) % log_interval == 0:
loss_mean = loss_mean / log_interval
print("Training:Epoch[{:0>3}/{:0>3}] Iteration[{:0>3}/{:0>3}] Loss: {:.4f} Acc:{:.2%}".format(
epoch, MAX_EPOCH, i+1, len(train_loader), loss_mean, correct / total))
loss_mean = 0.
scheduler.step() # 更新學(xué)習(xí)率
完
進(jìn)階
Tensorboard
使用SummaryWriter生成一個(gè)記錄器屹堰,如果函數(shù)中用log_dir,就會(huì)在指定地址中生成記錄街氢;如果用comment, 就會(huì)自動(dòng)生成一個(gè)run文件夾扯键,里面的文件夾以comment定義的字段結(jié)尾。
writer.add_scalar記錄標(biāo)量珊肃,一個(gè)參數(shù)是名稱荣刑,第二個(gè)參數(shù)是y值,第三參數(shù)是x值伦乔。
還可以記錄圖片厉亏、計(jì)算圖、直方圖烈和。
from torch.utils.tensorboard import SummaryWriter
writer = SummaryWriter(comment='test_tensorboard')
#writer = SummaryWriter(log_dir='./board')
for x in range(100):
writer.add_scalar('y=2x', x * 2, x)
writer.add_scalar('y=pow(2, x)', 2 ** x, x)
writer.add_scalars('data/scalar_group', {"xsinx": x * np.sin(x),
"xcosx": x * np.cos(x),
"arctanx": np.arctan(x)}, x)
writer.close()
更新中......