10分鐘快速入門PyTorch (2)

上一節(jié)介紹了簡單的線性回歸瓢省,如何在pytorch里面用最小二乘來擬合一些離散的點,這一節(jié)我們將開始簡單的logistic回歸痊班,介紹圖像分類問題勤婚,使用的數(shù)據(jù)是手寫字體數(shù)據(jù)集MNIST。

logistic回歸

logistic回歸簡單來說和線性回歸是一樣的涤伐,要做的運算同樣是 y = w * x + b蛔六,logistic回歸簡單的是做二分類問題荆永,使用sigmoid函數(shù)將所有的正數(shù)和負(fù)數(shù)都變成0-1之間的數(shù),這樣就可以用這個數(shù)來確定到底屬于哪一類国章,可以簡單的認(rèn)為概率大于0.5即為第二類具钥,小于0.5為第一類。
$y = \frac{1}{1+e^{-x}}$

1

這就是sigmoid的圖形

而我們這里要做的是多分類問題液兽,對于每一個數(shù)據(jù)骂删,我們輸出的維數(shù)是分類的總數(shù),比如10分類四啰,我們輸出的就是一個10維的向量宁玫,然后我們使用另外一個激活函數(shù),softmax

2

這就是softmax函數(shù)作用的機制柑晒,其實簡單的理解就是確定這10個數(shù)每個數(shù)對應(yīng)的概率有多大,因為這10個數(shù)有正有負(fù)匙赞,所以通過指數(shù)函數(shù)將他們?nèi)孔兂烧龜?shù)佛掖,然后求和,然后這10個數(shù)每個數(shù)都除以這個和芥被,這樣就得到了每個類別的概率拴魄。

Code

data

首先導(dǎo)入torch里面專門做圖形處理的一個庫匹中,torchvision顶捷,根據(jù)官方安裝指南,你在安裝pytorch的時候torchvision也會安裝扮授。

我們需要使用的是torchvision.transforms和torchvision.datasets以及torch.utils.data.DataLoader

首先DataLoader是導(dǎo)入圖片的操作芳室,里面有一些參數(shù),比如batch_size和shuffle等刹勃,默認(rèn)load進(jìn)去的圖片類型是PIL.Image.open的類型堪侯,如果你不知道PIL,簡單來說就是一種讀取圖片的庫

torchvision.transforms里面的操作是對導(dǎo)入的圖片做處理荔仁,比如可以隨機取(50, 50)這樣的窗框大小伍宦,或者隨機翻轉(zhuǎn)芽死,或者去中間的(50, 50)的窗框大小部分等等,但是里面必須要用的是transforms.ToTensor()次洼,這可以將PIL的圖片類型轉(zhuǎn)換成tensor关贵,這樣pytorch才可以對其做處理

torchvision.datasets里面有很多數(shù)據(jù)類型,里面有官網(wǎng)處理好的數(shù)據(jù)卖毁,比如我們要使用的MNIST數(shù)據(jù)集揖曾,可以通過torchvision.datasets.MNIST()來得到,還有一個常使用的是torchvision.datasets.ImageFolder()亥啦,這個可以讓我們按文件夾來取圖片炭剪,和keras里面的flow_from_directory()類似,具體的可以去看看官方文檔的介紹翔脱。

# 定義超參數(shù)
batch_size = 32
learning_rate = 1e-3
num_epoches = 20

# 下載訓(xùn)練集 MNIST 手寫數(shù)字訓(xùn)練集
train_dataset = datasets.MNIST(root='./data', train=True,
                               transform=transforms.ToTensor(),
                               download=True)

test_dataset = datasets.MNIST(root='./data', train=False,
                              transform=transforms.ToTensor())

train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)
test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False)

以上就是我們對圖片數(shù)據(jù)的讀取操作

model

之前講過模型定義的框架奴拦,廢話不多說,直接上代碼

class Logstic_Regression(nn.Module):
    def __init__(self, in_dim, n_class):
        super(Logstic_Regression, self).__init__()
        self.logstic = nn.Linear(in_dim, n_class)

    def forward(self, x):
        out = self.logstic(x)
        out = F.softmax(out)
        return out

model = Logstic_Regression(28*28, 10)  # 圖片大小是28x28

我們需要向這個模型傳入?yún)?shù)届吁,第一個參數(shù)定義為數(shù)據(jù)的維度错妖,第二維數(shù)是我們分類的數(shù)目。

接著我們可以在gpu上跑模型瓷产,怎么做呢站玄?
首先可以判斷一下你是否能在gpu上跑

torh.cuda.is_available()

如果返回True就說明有g(shù)pu支持

接著你只需要一個簡單的命令就可以了

model = model.cuda()

或者

model.cuda()

都可以

然后需要定義loss和optimizer

criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=learning_rate)

這里我們使用的loss是交叉熵,是一種處理分類問題的loss濒旦,optimizer我們還是使用隨機梯度下降

train

接著就可以開始訓(xùn)練了

for epoch in range(num_epoches):
    print('epoch {}'.format(epoch+1))
    print('*'*10)
    running_loss = 0.0
    running_acc = 0.0
    for i, data in enumerate(train_loader, 1):
        img, label = data
        img = img.view(img.size(0), -1)  # 將圖片展開成 28x28
        if use_gpu:
            img = Variable(img).cuda()
            label = Variable(label).cuda()
        else:
            img = Variable(img)
            label = Variable(label)
        # 向前傳播
        out = model(img)
        loss = criterion(out, label)
        running_loss += loss.data[0] * label.size(0)
        _, pred = torch.max(out, 1)
        num_correct = (pred == label).sum()
        running_acc += num_correct.data[0]
        # 向后傳播
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

注意我們?nèi)绻麑⒛P头诺搅薵pu上株旷,相應(yīng)的我們的Variable也要放到gpu上,也很簡單

img = Variable(img).cuda()
label = Variable(label).cuda()

然后可以測試模型尔邓,過程與訓(xùn)練類似晾剖,只是注意要將模型改成測試模式

model.eval()

這是跑完的結(jié)果

3

具體的結(jié)果多久打印一次,如何打印可以自己在for循環(huán)里面去設(shè)計

這一部分我們就講解了如何用logistic回歸去做一個簡單的圖片分類問題梯嗽,知道了如何在gpu上跑模型齿尽,下一節(jié)我們將介紹如何寫簡單的卷積神經(jīng)網(wǎng)絡(luò),不了解卷積網(wǎng)絡(luò)的同學(xué)可以先去我的專欄看看之前卷積網(wǎng)絡(luò)的介紹灯节。


本文代碼已經(jīng)上傳到了github

歡迎查看我的知乎專欄循头,深度煉丹

歡迎訪問我的博客

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市炎疆,隨后出現(xiàn)的幾起案子卡骂,更是在濱河造成了極大的恐慌,老刑警劉巖形入,帶你破解...
    沈念sama閱讀 218,546評論 6 507
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件全跨,死亡現(xiàn)場離奇詭異,居然都是意外死亡亿遂,警方通過查閱死者的電腦和手機浓若,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,224評論 3 395
  • 文/潘曉璐 我一進(jìn)店門渺杉,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人挪钓,你說我怎么就攤上這事是越。” “怎么了诵原?”我有些...
    開封第一講書人閱讀 164,911評論 0 354
  • 文/不壞的土叔 我叫張陵英妓,是天一觀的道長。 經(jīng)常有香客問我绍赛,道長蔓纠,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,737評論 1 294
  • 正文 為了忘掉前任吗蚌,我火速辦了婚禮腿倚,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘蚯妇。我一直安慰自己敷燎,他們只是感情好,可當(dāng)我...
    茶點故事閱讀 67,753評論 6 392
  • 文/花漫 我一把揭開白布箩言。 她就那樣靜靜地躺著硬贯,像睡著了一般。 火紅的嫁衣襯著肌膚如雪陨收。 梳的紋絲不亂的頭發(fā)上饭豹,一...
    開封第一講書人閱讀 51,598評論 1 305
  • 那天,我揣著相機與錄音务漩,去河邊找鬼拄衰。 笑死,一個胖子當(dāng)著我的面吹牛饵骨,可吹牛的內(nèi)容都是我干的翘悉。 我是一名探鬼主播,決...
    沈念sama閱讀 40,338評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼居触,長吁一口氣:“原來是場噩夢啊……” “哼妖混!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起轮洋,我...
    開封第一講書人閱讀 39,249評論 0 276
  • 序言:老撾萬榮一對情侶失蹤制市,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后砖瞧,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體息堂,經(jīng)...
    沈念sama閱讀 45,696評論 1 314
  • 正文 獨居荒郊野嶺守林人離奇死亡嚷狞,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,888評論 3 336
  • 正文 我和宋清朗相戀三年块促,在試婚紗的時候發(fā)現(xiàn)自己被綠了荣堰。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 40,013評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡竭翠,死狀恐怖振坚,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情斋扰,我是刑警寧澤渡八,帶...
    沈念sama閱讀 35,731評論 5 346
  • 正文 年R本政府宣布,位于F島的核電站传货,受9級特大地震影響屎鳍,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜问裕,卻給世界環(huán)境...
    茶點故事閱讀 41,348評論 3 330
  • 文/蒙蒙 一逮壁、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧粮宛,春花似錦窥淆、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,929評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至筷畦,卻和暖如春词裤,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背汁咏。 一陣腳步聲響...
    開封第一講書人閱讀 33,048評論 1 270
  • 我被黑心中介騙來泰國打工亚斋, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人攘滩。 一個月前我還...
    沈念sama閱讀 48,203評論 3 370
  • 正文 我出身青樓帅刊,卻偏偏與公主長得像,于是被迫代替她去往敵國和親漂问。 傳聞我的和親對象是個殘疾皇子赖瞒,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 44,960評論 2 355

推薦閱讀更多精彩內(nèi)容