上一節(jié)介紹了簡單的線性回歸瓢省,如何在pytorch里面用最小二乘來擬合一些離散的點,這一節(jié)我們將開始簡單的logistic回歸痊班,介紹圖像分類問題勤婚,使用的數(shù)據(jù)是手寫字體數(shù)據(jù)集MNIST。
logistic回歸
logistic回歸簡單來說和線性回歸是一樣的涤伐,要做的運算同樣是 y = w * x + b蛔六,logistic回歸簡單的是做二分類問題荆永,使用sigmoid函數(shù)將所有的正數(shù)和負(fù)數(shù)都變成0-1之間的數(shù),這樣就可以用這個數(shù)來確定到底屬于哪一類国章,可以簡單的認(rèn)為概率大于0.5即為第二類具钥,小于0.5為第一類。
$y = \frac{1}{1+e^{-x}}$
這就是sigmoid的圖形
而我們這里要做的是多分類問題液兽,對于每一個數(shù)據(jù)骂删,我們輸出的維數(shù)是分類的總數(shù),比如10分類四啰,我們輸出的就是一個10維的向量宁玫,然后我們使用另外一個激活函數(shù),softmax
這就是softmax函數(shù)作用的機制柑晒,其實簡單的理解就是確定這10個數(shù)每個數(shù)對應(yīng)的概率有多大,因為這10個數(shù)有正有負(fù)匙赞,所以通過指數(shù)函數(shù)將他們?nèi)孔兂烧龜?shù)佛掖,然后求和,然后這10個數(shù)每個數(shù)都除以這個和芥被,這樣就得到了每個類別的概率拴魄。
Code
data
首先導(dǎo)入torch里面專門做圖形處理的一個庫匹中,torchvision顶捷,根據(jù)官方安裝指南,你在安裝pytorch的時候torchvision也會安裝扮授。
我們需要使用的是torchvision.transforms和torchvision.datasets以及torch.utils.data.DataLoader
首先DataLoader是導(dǎo)入圖片的操作芳室,里面有一些參數(shù),比如batch_size和shuffle等刹勃,默認(rèn)load進(jìn)去的圖片類型是PIL.Image.open的類型堪侯,如果你不知道PIL,簡單來說就是一種讀取圖片的庫
torchvision.transforms里面的操作是對導(dǎo)入的圖片做處理荔仁,比如可以隨機取(50, 50)這樣的窗框大小伍宦,或者隨機翻轉(zhuǎn)芽死,或者去中間的(50, 50)的窗框大小部分等等,但是里面必須要用的是transforms.ToTensor()次洼,這可以將PIL的圖片類型轉(zhuǎn)換成tensor关贵,這樣pytorch才可以對其做處理
torchvision.datasets里面有很多數(shù)據(jù)類型,里面有官網(wǎng)處理好的數(shù)據(jù)卖毁,比如我們要使用的MNIST數(shù)據(jù)集揖曾,可以通過torchvision.datasets.MNIST()來得到,還有一個常使用的是torchvision.datasets.ImageFolder()亥啦,這個可以讓我們按文件夾來取圖片炭剪,和keras里面的flow_from_directory()類似,具體的可以去看看官方文檔的介紹翔脱。
# 定義超參數(shù)
batch_size = 32
learning_rate = 1e-3
num_epoches = 20
# 下載訓(xùn)練集 MNIST 手寫數(shù)字訓(xùn)練集
train_dataset = datasets.MNIST(root='./data', train=True,
transform=transforms.ToTensor(),
download=True)
test_dataset = datasets.MNIST(root='./data', train=False,
transform=transforms.ToTensor())
train_loader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)
test_loader = DataLoader(test_dataset, batch_size=batch_size, shuffle=False)
以上就是我們對圖片數(shù)據(jù)的讀取操作
model
之前講過模型定義的框架奴拦,廢話不多說,直接上代碼
class Logstic_Regression(nn.Module):
def __init__(self, in_dim, n_class):
super(Logstic_Regression, self).__init__()
self.logstic = nn.Linear(in_dim, n_class)
def forward(self, x):
out = self.logstic(x)
out = F.softmax(out)
return out
model = Logstic_Regression(28*28, 10) # 圖片大小是28x28
我們需要向這個模型傳入?yún)?shù)届吁,第一個參數(shù)定義為數(shù)據(jù)的維度错妖,第二維數(shù)是我們分類的數(shù)目。
接著我們可以在gpu上跑模型瓷产,怎么做呢站玄?
首先可以判斷一下你是否能在gpu上跑
torh.cuda.is_available()
如果返回True就說明有g(shù)pu支持
接著你只需要一個簡單的命令就可以了
model = model.cuda()
或者
model.cuda()
都可以
然后需要定義loss和optimizer
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=learning_rate)
這里我們使用的loss是交叉熵,是一種處理分類問題的loss濒旦,optimizer我們還是使用隨機梯度下降
train
接著就可以開始訓(xùn)練了
for epoch in range(num_epoches):
print('epoch {}'.format(epoch+1))
print('*'*10)
running_loss = 0.0
running_acc = 0.0
for i, data in enumerate(train_loader, 1):
img, label = data
img = img.view(img.size(0), -1) # 將圖片展開成 28x28
if use_gpu:
img = Variable(img).cuda()
label = Variable(label).cuda()
else:
img = Variable(img)
label = Variable(label)
# 向前傳播
out = model(img)
loss = criterion(out, label)
running_loss += loss.data[0] * label.size(0)
_, pred = torch.max(out, 1)
num_correct = (pred == label).sum()
running_acc += num_correct.data[0]
# 向后傳播
optimizer.zero_grad()
loss.backward()
optimizer.step()
注意我們?nèi)绻麑⒛P头诺搅薵pu上株旷,相應(yīng)的我們的Variable也要放到gpu上,也很簡單
img = Variable(img).cuda()
label = Variable(label).cuda()
然后可以測試模型尔邓,過程與訓(xùn)練類似晾剖,只是注意要將模型改成測試模式
model.eval()
這是跑完的結(jié)果
具體的結(jié)果多久打印一次,如何打印可以自己在for循環(huán)里面去設(shè)計
這一部分我們就講解了如何用logistic回歸去做一個簡單的圖片分類問題梯嗽,知道了如何在gpu上跑模型齿尽,下一節(jié)我們將介紹如何寫簡單的卷積神經(jīng)網(wǎng)絡(luò),不了解卷積網(wǎng)絡(luò)的同學(xué)可以先去我的專欄看看之前卷積網(wǎng)絡(luò)的介紹灯节。
本文代碼已經(jīng)上傳到了github上
歡迎查看我的知乎專欄循头,深度煉丹
歡迎訪問我的博客