PyTorch極簡(jiǎn)教程

PyTorch:深度學(xué)習(xí)框架,神經(jīng)網(wǎng)絡(luò)界的Numpy卵迂。所以PyTorch的使用方式基本與Numpy一致裕便。

Tensor:PyTorch的核心,與Numpy最大的不同见咒。將一個(gè)變量聲明為T(mén)ensor闪金,才能在神經(jīng)網(wǎng)絡(luò)中自動(dòng)求導(dǎo),并且使用GPU论颅。

計(jì)算圖:用tensor構(gòu)建計(jì)算圖哎垦,但是只有用戶提交的tensor數(shù)據(jù)是葉子節(jié)點(diǎn),中間運(yùn)算產(chǎn)生的tensor不是葉子節(jié)點(diǎn)恃疯。只有葉子節(jié)點(diǎn)在反向傳播的時(shí)候有梯度漏设。梯度會(huì)累加,所以每次循環(huán)的時(shí)候都要把梯度重置今妄。

PyTorch構(gòu)建神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)需要包括5個(gè)部分郑口。

  1. 數(shù)據(jù)
  2. 模型
  3. 損失函數(shù)
  4. 優(yōu)化器
  5. 迭代訓(xùn)練

1. 數(shù)據(jù):Dataset,Dataloader

Dataset定義了數(shù)據(jù)的來(lái)源盾鳞,包括數(shù)據(jù)的讀取目錄犬性,返回結(jié)果和圖像變換。建立dataset后交給Dataloader腾仅。
Dataloader定義了數(shù)據(jù)的加載方式乒裆,報(bào)告batch大小,是否打亂等推励。
加載圖片可以使用torchvision中的dataset鹤耍,返回圖片和標(biāo)簽名。

import torchvision
from torchvision import datasets, models, transforms

data_transforms = {
    'train': transforms.Compose([
        transforms.RandomResizedCrop(224),
        transforms.RandomHorizontalFlip(),
        transforms.ToTensor(),
        transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
    ]),
    'val': transforms.Compose([
        transforms.Resize(256),
        transforms.CenterCrop(224),
        transforms.ToTensor(),
        transforms.Normalize([0.485, 0.456, 0.406], [0.229, 0.224, 0.225])
    ]),
}

data_dir = 'data/hymenoptera_data'
image_datasets = {x: datasets.ImageFolder(os.path.join(data_dir, x),
                                          data_transforms[x])
                  for x in ['train', 'val']}
dataloaders = {x: torch.utils.data.DataLoader(image_datasets[x], batch_size=4,
                                             shuffle=True, num_workers=4)
              for x in ['train', 'val']}
dataset_sizes = {x: len(image_datasets[x]) for x in ['train', 'val']}
class_names = image_datasets['train'].classes

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

如果有需要验辞,可以自定義dataset稿黄,比如不光返回圖片,還返回文件名跌造。

class MyDataset(Dataset):

    def __init__(self, root_dir, transform=None):
        self.root_dir = root_dir
        self.transform = transform
        self.size = 0
        self.names_list = []

        if not os.path.isdir(self.root_dir):
            print(self.root_dir + 'does not exist!')

        self.names_list = os.listdir(self.root_dir)
        self.size = self.names_list.__len__()

    def __len__(self):
        return self.size

    def __getitem__(self, idx):
        image_path = os.path.join(self.root_dir, self.names_list[idx])
        if not os.path.isfile(image_path):
            print(image_path + 'does not exist!')
            return None
        # image = io.imread(image_path)   # use skitimage
        image = Image.open(image_path)  # use pil
        name = self.names_list[idx]

        if self.transform:
            sample = {'image': self.transform(image), 'name':name}
        else:
            sample = {'image': image, 'name': name}

        return sample

2. 模型

定義網(wǎng)絡(luò)結(jié)構(gòu)和前向傳播杆怕。

class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.conv1 = nn.Conv2d(1, 6, 5)
        self.pool = nn.MaxPool2d(2, 2)
        self.conv2 = nn.Conv2d(6, 16, 5)
        self.fc1 = nn.Linear(16 * 4 * 4, 120)
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 10)

    def forward(self, x):
        x = self.pool(F.relu(self.conv1(x)))
        x = self.pool(F.relu(self.conv2(x)))
        x = x.view(-1, 16 * 4 * 4)
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = self.fc3(x)
        return x

net = Net()

3. 損失函數(shù)

損失函數(shù)就是計(jì)算模型輸出結(jié)果和真實(shí)值的差距,可以直接計(jì)算向量距離,就是nn.MSELoss陵珍。
現(xiàn)在一般用交叉熵nn.CrossEntropyLoss()寝杖。

import torch.nn as nn
criterion = nn.CrossEntropyLoss()

4. 優(yōu)化器

當(dāng)?shù)玫搅薒oss值,就可以反向傳播得到梯度撑教,有了梯度該怎么對(duì)權(quán)值進(jìn)行更新朝墩,就是優(yōu)化器的工作醉拓。
SGD是最基礎(chǔ)的優(yōu)化器伟姐,最慢但是不會(huì)出問(wèn)題。之后有很多優(yōu)化亿卤,現(xiàn)在可以考慮Adam愤兵。

import torch.optim as optim
optimizer = optim.SGD(net.parameters(), lr=LR, momentum=0.9)                        # 選擇優(yōu)化器
scheduler = torch.optim.lr_scheduler.StepLR(optimizer, step_size=10, gamma=0.1)     # 設(shè)置學(xué)習(xí)率下降策略

5. 迭代訓(xùn)練

迭代時(shí)要重置梯度,計(jì)算loss排吴,反向傳播秆乳,更新優(yōu)化器。如果學(xué)習(xí)率有更新策略的話還有更新學(xué)習(xí)率钻哩。

for epoch in range(MAX_EPOCH):

    loss_mean = 0.
    correct = 0.
    total = 0.

    net.train()
    for i, data in enumerate(train_loader):

        # forward
        inputs, labels = data
        outputs = net(inputs)

        # backward
        optimizer.zero_grad()
        loss = criterion(outputs, labels)
        loss.backward()

        # update weights
        optimizer.step()

        # 統(tǒng)計(jì)分類情況
        _, predicted = torch.max(outputs.data, 1)
        total += labels.size(0)
        correct += (predicted == labels).squeeze().sum().numpy()

        # 打印訓(xùn)練信息
        loss_mean += loss.item()
        train_curve.append(loss.item())
        if (i+1) % log_interval == 0:
            loss_mean = loss_mean / log_interval
            print("Training:Epoch[{:0>3}/{:0>3}] Iteration[{:0>3}/{:0>3}] Loss: {:.4f} Acc:{:.2%}".format(
                epoch, MAX_EPOCH, i+1, len(train_loader), loss_mean, correct / total))
            loss_mean = 0.

    scheduler.step()  # 更新學(xué)習(xí)率


進(jìn)階

Tensorboard

使用SummaryWriter生成一個(gè)記錄器屹堰,如果函數(shù)中用log_dir,就會(huì)在指定地址中生成記錄街氢;如果用comment, 就會(huì)自動(dòng)生成一個(gè)run文件夾扯键,里面的文件夾以comment定義的字段結(jié)尾。
writer.add_scalar記錄標(biāo)量珊肃,一個(gè)參數(shù)是名稱荣刑,第二個(gè)參數(shù)是y值,第三參數(shù)是x值伦乔。
還可以記錄圖片厉亏、計(jì)算圖、直方圖烈和。

from torch.utils.tensorboard import SummaryWriter
writer = SummaryWriter(comment='test_tensorboard')
#writer = SummaryWriter(log_dir='./board')

for x in range(100):

    writer.add_scalar('y=2x', x * 2, x)
    writer.add_scalar('y=pow(2, x)',  2 ** x, x)
    
    writer.add_scalars('data/scalar_group', {"xsinx": x * np.sin(x),
                                             "xcosx": x * np.cos(x),
                                             "arctanx": np.arctan(x)}, x)
writer.close()

更新中......

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末爱只,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子招刹,更是在濱河造成了極大的恐慌虱颗,老刑警劉巖,帶你破解...
    沈念sama閱讀 206,968評(píng)論 6 482
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件蔗喂,死亡現(xiàn)場(chǎng)離奇詭異忘渔,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī)缰儿,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,601評(píng)論 2 382
  • 文/潘曉璐 我一進(jìn)店門(mén)畦粮,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人,你說(shuō)我怎么就攤上這事宣赔≡铮” “怎么了?”我有些...
    開(kāi)封第一講書(shū)人閱讀 153,220評(píng)論 0 344
  • 文/不壞的土叔 我叫張陵儒将,是天一觀的道長(zhǎng)吏祸。 經(jīng)常有香客問(wèn)我,道長(zhǎng)钩蚊,這世上最難降的妖魔是什么贡翘? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 55,416評(píng)論 1 279
  • 正文 為了忘掉前任,我火速辦了婚禮砰逻,結(jié)果婚禮上鸣驱,老公的妹妹穿的比我還像新娘。我一直安慰自己蝠咆,他們只是感情好踊东,可當(dāng)我...
    茶點(diǎn)故事閱讀 64,425評(píng)論 5 374
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著刚操,像睡著了一般闸翅。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上菊霜,一...
    開(kāi)封第一講書(shū)人閱讀 49,144評(píng)論 1 285
  • 那天坚冀,我揣著相機(jī)與錄音,去河邊找鬼占卧。 笑死遗菠,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的华蜒。 我是一名探鬼主播辙纬,決...
    沈念sama閱讀 38,432評(píng)論 3 401
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼叭喜!你這毒婦竟也來(lái)了贺拣?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書(shū)人閱讀 37,088評(píng)論 0 261
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤捂蕴,失蹤者是張志新(化名)和其女友劉穎譬涡,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體啥辨,經(jīng)...
    沈念sama閱讀 43,586評(píng)論 1 300
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡涡匀,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,028評(píng)論 2 325
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了溉知。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片陨瘩。...
    茶點(diǎn)故事閱讀 38,137評(píng)論 1 334
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡腕够,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出舌劳,到底是詐尸還是另有隱情帚湘,我是刑警寧澤,帶...
    沈念sama閱讀 33,783評(píng)論 4 324
  • 正文 年R本政府宣布甚淡,位于F島的核電站大诸,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏贯卦。R本人自食惡果不足惜资柔,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,343評(píng)論 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望脸侥。 院中可真熱鬧建邓,春花似錦盈厘、人聲如沸睁枕。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 30,333評(píng)論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)外遇。三九已至,卻和暖如春契吉,著一層夾襖步出監(jiān)牢的瞬間跳仿,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 31,559評(píng)論 1 262
  • 我被黑心中介騙來(lái)泰國(guó)打工捐晶, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留菲语,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 45,595評(píng)論 2 355
  • 正文 我出身青樓惑灵,卻偏偏與公主長(zhǎng)得像山上,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子英支,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 42,901評(píng)論 2 345

推薦閱讀更多精彩內(nèi)容

  • 本次筆記使用的材料是2018版的斯坦福計(jì)算機(jī)課程Lecture8的ppt佩憾,相較于2017版改動(dòng)了一些內(nèi)容,總體是比...
    HRain閱讀 943評(píng)論 0 1
  • 作者:Soumith Chintala 官方60分鐘快速入門(mén)翻譯 Github 地址簡(jiǎn)書(shū)地址CSDN地址 本教程的...
    MaosongRan閱讀 25,721評(píng)論 0 35
  • Pytorch 神經(jīng)網(wǎng)絡(luò)基礎(chǔ) 1.1 Pytorch & Numpy 1.1.1 用Torch還是Numpy To...
    suwi閱讀 6,376評(píng)論 0 10
  • 很少喝酒的我今夜第一次買(mǎi)了一瓶燕京啤酒干花,不知何時(shí)心里出現(xiàn)一股落寞感妄帘;一個(gè)人坐在馬路拐角處的養(yǎng)花臺(tái)邊,手里拿著一小包...
    浮生未歇521閱讀 267評(píng)論 2 1
  • 當(dāng)一切還來(lái)的及的時(shí)候池凄,我們就要用自己的一切辦法去做自己想做的事抡驼,沒(méi)有任何原因,只因想做肿仑,沒(méi)有任何理由致盟,只因開(kāi)心桑阶,當(dāng)...
    冉叁閱讀 149評(píng)論 0 1