PyTorch基本用法(十)——卷積神經(jīng)網(wǎng)絡(luò)

文章作者:Tyan
博客:noahsnail.com ?|? CSDN ?|? 簡書

本文主要是關(guān)于PyTorch的一些用法芒率。

import torch
import torchvision
import torch.nn as nn
import torch.utils.data as Data
import matplotlib.pyplot as plt
from torch.autograd import Variable

# 超參數(shù)定義
EPOCH = 1
LR = 0.01
BATCH_SIZE = 64

# 下載MNIST數(shù)據(jù)集
train_data = torchvision.datasets.MNIST(
    root = './mnist/',
    # 是否是訓練數(shù)據(jù)
    train = True,
    # 數(shù)據(jù)變換(0, 255) -> (0, 1)
    transform = torchvision.transforms.ToTensor(),
    # 是否下載MNIST數(shù)據(jù)
    download = True
)

test_data = torchvision.datasets.MNIST(
    root = './mnist/',
    # 是否是訓練數(shù)據(jù)
    train = False,
    # 數(shù)據(jù)變換(0, 255) -> (0, 1)
    transform = torchvision.transforms.ToTensor(),
    # 是否下載MNIST數(shù)據(jù)
    download = True
)

print train_data.train_data.size()
print train_data.train_labels.size()
print test_data.test_data.size()
print test_data.test_labels.size()
torch.Size([60000, 28, 28])
torch.Size([60000])
torch.Size([10000, 28, 28])
torch.Size([10000])
# 查看圖像
plt.imshow(train_data.train_data[0].numpy(), cmap = 'gray')
plt.title('%i' % train_data.train_labels[0])
plt.show()

plt.imshow(test_data.test_data[0].numpy(), cmap = 'gray')
plt.title('%i' % test_data.test_labels[0])
plt.show()
png
png
# 數(shù)據(jù)加載
train_loader = Data.DataLoader(dataset = train_data, batch_size = BATCH_SIZE, shuffle = True, num_workers = 2)
test_loader = Data.DataLoader(dataset = test_data, batch_size = BATCH_SIZE, shuffle = False, num_workers = 1)

# 定義卷積神經(jīng)網(wǎng)絡(luò)
class CNN(nn.Module):
    def __init__(self):
        super(CNN, self).__init__()
        self.conv1 = nn.Sequential(
            nn.Conv2d(
                in_channels = 1,
                out_channels = 16,
                kernel_size = 5,
                stride = 1,
                padding = 2
            ),
            nn.ReLU(),
            nn.MaxPool2d(kernel_size = 2)
        )
        # conv1輸出為(16, 14, 14)
        self.conv2 = nn.Sequential(
            nn.Conv2d(16, 32, 5, 1, 2),
            nn.ReLU(),
            nn.MaxPool2d(2)
        )
        # conv2輸出為(32, 7, 7)
        self.output = nn.Linear(32 * 7 * 7, 10)
        
    def forward(self, x):
        x = self.conv1(x)
        x = self.conv2(x)
        x = x.view(x.size(0), -1)
        prediction = self.output(x)
        return prediction

cnn = CNN()
print cnn
CNN (
  (conv1): Sequential (
    (0): Conv2d(1, 16, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))
    (1): ReLU ()
    (2): MaxPool2d (size=(2, 2), stride=(2, 2), dilation=(1, 1))
  )
  (conv2): Sequential (
    (0): Conv2d(16, 32, kernel_size=(5, 5), stride=(1, 1), padding=(2, 2))
    (1): ReLU ()
    (2): MaxPool2d (size=(2, 2), stride=(2, 2), dilation=(1, 1))
  )
  (output): Linear (1568 -> 10)
)
# 定義優(yōu)化器
optimizer = torch.optim.Adam(cnn.parameters(), lr = LR, betas= (0.9, 0.999))

# 定義損失函數(shù)
loss_func = nn.CrossEntropyLoss()

# 訓練
for epoch in xrange(EPOCH):
    for step, (x, y) in enumerate(train_loader):
        x_var = Variable(x)
        y_var = Variable(y)
        prediction = cnn(x_var)
        loss = loss_func(prediction, y_var)
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
        
        if step % 100 == 0:
            correct = 0.0
            for step_test, (test_x, test_y) in enumerate(test_loader):
                test_x = Variable(test_x)
                test_output = cnn(test_x)
                pred_y = torch.max(test_output, 1)[1].data.squeeze()
                correct += sum(pred_y == test_y)
            accuracy = correct / test_data.test_data.size(0)
            print 'Epoch: ', epoch, '| train loss: %.4f' % loss.data[0], '| accuracy: ', accuracy
Epoch:  0 | train loss: 2.2787 | accuracy:  0.0982
Epoch:  0 | train loss: 0.0788 | accuracy:  0.9592
Epoch:  0 | train loss: 0.0587 | accuracy:  0.9626
Epoch:  0 | train loss: 0.0188 | accuracy:  0.9745
Epoch:  0 | train loss: 0.0707 | accuracy:  0.9759
Epoch:  0 | train loss: 0.0564 | accuracy:  0.9775
Epoch:  0 | train loss: 0.0489 | accuracy:  0.9779
Epoch:  0 | train loss: 0.0925 | accuracy:  0.9791
Epoch:  0 | train loss: 0.0566 | accuracy:  0.9834

參考資料

  1. https://www.youtube.com/user/MorvanZhou
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末囤耳,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子偶芍,更是在濱河造成了極大的恐慌充择,老刑警劉巖,帶你破解...
    沈念sama閱讀 221,635評論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件匪蟀,死亡現(xiàn)場離奇詭異聪铺,居然都是意外死亡,警方通過查閱死者的電腦和手機萄窜,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,543評論 3 399
  • 文/潘曉璐 我一進店門铃剔,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人查刻,你說我怎么就攤上這事键兜。” “怎么了穗泵?”我有些...
    開封第一講書人閱讀 168,083評論 0 360
  • 文/不壞的土叔 我叫張陵普气,是天一觀的道長。 經(jīng)常有香客問我佃延,道長现诀,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 59,640評論 1 296
  • 正文 為了忘掉前任履肃,我火速辦了婚禮仔沿,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘尺棋。我一直安慰自己封锉,他們只是感情好,可當我...
    茶點故事閱讀 68,640評論 6 397
  • 文/花漫 我一把揭開白布膘螟。 她就那樣靜靜地躺著成福,像睡著了一般。 火紅的嫁衣襯著肌膚如雪荆残。 梳的紋絲不亂的頭發(fā)上奴艾,一...
    開封第一講書人閱讀 52,262評論 1 308
  • 那天,我揣著相機與錄音内斯,去河邊找鬼蕴潦。 笑死像啼,一個胖子當著我的面吹牛,可吹牛的內(nèi)容都是我干的品擎。 我是一名探鬼主播,決...
    沈念sama閱讀 40,833評論 3 421
  • 文/蒼蘭香墨 我猛地睜開眼备徐,長吁一口氣:“原來是場噩夢啊……” “哼萄传!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起蜜猾,我...
    開封第一講書人閱讀 39,736評論 0 276
  • 序言:老撾萬榮一對情侶失蹤秀菱,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后蹭睡,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體衍菱,經(jīng)...
    沈念sama閱讀 46,280評論 1 319
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 38,369評論 3 340
  • 正文 我和宋清朗相戀三年肩豁,在試婚紗的時候發(fā)現(xiàn)自己被綠了脊串。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 40,503評論 1 352
  • 序言:一個原本活蹦亂跳的男人離奇死亡清钥,死狀恐怖琼锋,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情祟昭,我是刑警寧澤缕坎,帶...
    沈念sama閱讀 36,185評論 5 350
  • 正文 年R本政府宣布,位于F島的核電站篡悟,受9級特大地震影響谜叹,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜搬葬,卻給世界環(huán)境...
    茶點故事閱讀 41,870評論 3 333
  • 文/蒙蒙 一薄扁、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧梧兼,春花似錦登夫、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,340評論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至企孩,卻和暖如春锭碳,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背勿璃。 一陣腳步聲響...
    開封第一講書人閱讀 33,460評論 1 272
  • 我被黑心中介騙來泰國打工擒抛, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留推汽,地道東北人。 一個月前我還...
    沈念sama閱讀 48,909評論 3 376
  • 正文 我出身青樓歧沪,卻偏偏與公主長得像歹撒,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子诊胞,可洞房花燭夜當晚...
    茶點故事閱讀 45,512評論 2 359

推薦閱讀更多精彩內(nèi)容