深度學(xué)習(xí)&PyTorch 之 DNN-二分類

本節(jié)開始說一下DNN分類的pytorch實(shí)現(xiàn)颈将,先說一下二分類

流程還是跟前面一樣

graph TD
A[數(shù)據(jù)導(dǎo)入] --> B[數(shù)據(jù)拆分]
B[數(shù)據(jù)拆分] --> C[Tensor轉(zhuǎn)換]
C[Tensor轉(zhuǎn)換] --> D[數(shù)據(jù)重構(gòu)]
D[數(shù)據(jù)重構(gòu)] --> E[模型定義]
E[模型定義] --> F[模型訓(xùn)練]
F[模型訓(xùn)練] --> G[結(jié)果展示]

代碼

1 數(shù)據(jù)導(dǎo)入

我們使用最常見的iris數(shù)據(jù)集

data = pd.read_csv('./iris.csv')
data.columns = ["f1","f2","f3","f4","label"]

data = data.head(99)
data

在這里插入圖片描述

因?yàn)閕ris鳶尾花數(shù)據(jù)集是一個(gè)三分類的數(shù)據(jù)晨炕,我們只去前99條數(shù)據(jù),這樣的話就只有兩個(gè)分類了。

2.數(shù)據(jù)拆分

from sklearn.model_selection import train_test_split
train,test = train_test_split(data, train_size=0.7)

train_x = train[[c for c in data.columns if c != 'label']].values
test_x = test[[c for c in data.columns if c != 'label']].values

train_y = train.label.values.reshape(-1, 1)
test_y = test.label.values.reshape(-1, 1)

3.To Tensor

train_x = torch.from_numpy(train_x).type(torch.FloatTensor)
test_x = torch.from_numpy(test_x).type(torch.FloatTensor)
train_y = torch.from_numpy(train_y).type(torch.FloatTensor)
test_y = torch.from_numpy(test_y).type(torch.FloatTensor)

train_x.shape, train_y.shape
#(torch.Size([69, 4]), torch.Size([69, 1]))

4.數(shù)據(jù)重構(gòu)

from torch.utils.data import TensorDataset
from torch.utils.data import DataLoader

train_ds = TensorDataset(train_x, train_y)
train_dl = DataLoader(train_ds, batch_size=batch, shuffle=True)

test_ds = TensorDataset(test_x, test_y)
test_dl = DataLoader(test_ds, batch_size=batch * 2)

5.網(wǎng)絡(luò)定義

from torch import nn
import torch.nn.functional as F

class DNN(nn.Module):
    def __init__(self):
        super().__init__()
        self.hidden1 = nn.Linear(4, 64)
        self.hidden2 = nn.Linear(64, 64)
        self.hidden3 = nn.Linear(64, 1)
    def forward(self, input):
        x = F.relu(self.hidden1(input))
        x = F.relu(self.hidden2(x))
        x = torch.sigmoid(self.hidden3(x))
        return x
#二分類準(zhǔn)確率計(jì)算函數(shù)
def accuracy(out, yb):
    preds = (out>0.5).type(torch.IntTensor)
    return (preds == yb).float().mean()

def get_model():
    model = DNN()
    return model, torch.optim.Adam(model.parameters(), lr=lr)
loss_fn = nn.BCELoss()
model, opt = get_model()
model#查看網(wǎng)絡(luò)結(jié)構(gòu)

DNN(
(hidden1): Linear(in_features=4, out_features=64, bias=True)
(hidden2): Linear(in_features=64, out_features=64, bias=True)
(hidden3): Linear(in_features=64, out_features=1, bias=True)
)
我們也可以根據(jù)上節(jié)課內(nèi)容可視化一下

在這里插入圖片描述

6. 訓(xùn)練

train_loss = []
train_acc = []

test_loss = []
test_acc = []


for epoch in range(epochs+1):
    model.train()
    for xb, yb in train_dl:
        pred = model(xb)
        loss = loss_fn(pred, yb)

        loss.backward()
        opt.step()
        opt.zero_grad()
    if epoch%1==0:
        model.eval()
        with torch.no_grad():
            train_epoch_loss = sum(loss_fn(model(xb), yb) for xb, yb in train_dl)
            test_epoch_loss = sum(loss_fn(model(xb), yb) for xb, yb in test_dl)
            acc_mean_train = np.mean([accuracy(model(xb), yb) for xb, yb in train_dl])
            acc_mean_val = np.mean([accuracy(model(xb), yb) for xb, yb in test_dl])
        train_loss.append(train_epoch_loss.data.item() / len(test_dl))
        test_loss.append(test_epoch_loss.data.item() / len(test_dl))
        train_acc.append(acc_mean_train)
        test_acc.append(acc_mean_val)
        template = ("epoch:{:2d}, 訓(xùn)練損失:{:.5f}, 訓(xùn)練準(zhǔn)確率:{:.1f},驗(yàn)證損失:{:.5f}, 驗(yàn)證準(zhǔn)確率:{:.1f}")
    
        print(template.format(epoch, train_epoch_loss.data.item() / len(test_dl), acc_mean_train*100, test_epoch_loss.data.item() / len(test_dl), acc_mean_val*100))
print('訓(xùn)練完成')

epoch: 0, 訓(xùn)練損失:3.09122, 訓(xùn)練準(zhǔn)確率:57.0,驗(yàn)證損失:0.68206, 驗(yàn)證準(zhǔn)確率:36.7
epoch: 1, 訓(xùn)練損失:2.87476, 訓(xùn)練準(zhǔn)確率:54.3,驗(yàn)證損失:0.69797, 驗(yàn)證準(zhǔn)確率:36.7
epoch: 2, 訓(xùn)練損失:2.62978, 訓(xùn)練準(zhǔn)確率:61.0,驗(yàn)證損失:0.59363, 驗(yàn)證準(zhǔn)確率:36.7
epoch: 3, 訓(xùn)練損失:2.30378, 訓(xùn)練準(zhǔn)確率:100.0,驗(yàn)證損失:0.50508, 驗(yàn)證準(zhǔn)確率:100.0
epoch: 4, 訓(xùn)練損失:2.05582, 訓(xùn)練準(zhǔn)確率:100.0,驗(yàn)證損失:0.44803, 驗(yàn)證準(zhǔn)確率:100.0
epoch: 5, 訓(xùn)練損失:1.76421, 訓(xùn)練準(zhǔn)確率:100.0,驗(yàn)證損失:0.38924, 驗(yàn)證準(zhǔn)確率:100.0
epoch: 6, 訓(xùn)練損失:1.54745, 訓(xùn)練準(zhǔn)確率:100.0,驗(yàn)證損失:0.32642, 驗(yàn)證準(zhǔn)確率:100.0
......
epoch:98, 訓(xùn)練損失:0.00304, 訓(xùn)練準(zhǔn)確率:100.0,驗(yàn)證損失:0.00067, 驗(yàn)證準(zhǔn)確率:100.0
epoch:99, 訓(xùn)練損失:0.00311, 訓(xùn)練準(zhǔn)確率:100.0,驗(yàn)證損失:0.00067, 驗(yàn)證準(zhǔn)確率:100.0
epoch:100, 訓(xùn)練損失:0.00300, 訓(xùn)練準(zhǔn)確率:100.0,驗(yàn)證損失:0.00068, 驗(yàn)證準(zhǔn)確率:100.0
訓(xùn)練完成

7.查看結(jié)果

import matplotlib.pyplot as plt
#損失值
plt.plot(range(len(train_loss)), train_loss, label='train_loss')
plt.plot(range(len(test_loss)), test_loss, label='test_loss')
plt.legend()
在這里插入圖片描述
# 準(zhǔn)確率
plt.plot(range(len(train_acc)), train_acc, label='train_acc')
plt.plot(range(len(test_acc)), test_acc, label='test_acc')
plt.legend()
在這里插入圖片描述
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末试吁,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌膝昆,老刑警劉巖,帶你破解...
    沈念sama閱讀 211,817評(píng)論 6 492
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件叠必,死亡現(xiàn)場(chǎng)離奇詭異荚孵,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)纬朝,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,329評(píng)論 3 385
  • 文/潘曉璐 我一進(jìn)店門收叶,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人共苛,你說我怎么就攤上這事判没。” “怎么了隅茎?”我有些...
    開封第一講書人閱讀 157,354評(píng)論 0 348
  • 文/不壞的土叔 我叫張陵澄峰,是天一觀的道長(zhǎng)。 經(jīng)常有香客問我辟犀,道長(zhǎng)俏竞,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 56,498評(píng)論 1 284
  • 正文 為了忘掉前任堂竟,我火速辦了婚禮魂毁,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘出嘹。我一直安慰自己席楚,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,600評(píng)論 6 386
  • 文/花漫 我一把揭開白布税稼。 她就那樣靜靜地躺著酣胀,像睡著了一般。 火紅的嫁衣襯著肌膚如雪娶聘。 梳的紋絲不亂的頭發(fā)上闻镶,一...
    開封第一講書人閱讀 49,829評(píng)論 1 290
  • 那天,我揣著相機(jī)與錄音丸升,去河邊找鬼铆农。 笑死,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的墩剖。 我是一名探鬼主播猴凹,決...
    沈念sama閱讀 38,979評(píng)論 3 408
  • 文/蒼蘭香墨 我猛地睜開眼,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼岭皂!你這毒婦竟也來了郊霎?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 37,722評(píng)論 0 266
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤爷绘,失蹤者是張志新(化名)和其女友劉穎书劝,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體土至,經(jīng)...
    沈念sama閱讀 44,189評(píng)論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡购对,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,519評(píng)論 2 327
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了陶因。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片骡苞。...
    茶點(diǎn)故事閱讀 38,654評(píng)論 1 340
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖楷扬,靈堂內(nèi)的尸體忽然破棺而出解幽,到底是詐尸還是另有隱情,我是刑警寧澤烘苹,帶...
    沈念sama閱讀 34,329評(píng)論 4 330
  • 正文 年R本政府宣布亚铁,位于F島的核電站,受9級(jí)特大地震影響螟加,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜吞琐,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,940評(píng)論 3 313
  • 文/蒙蒙 一捆探、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧站粟,春花似錦黍图、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,762評(píng)論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至切诀,卻和暖如春揩环,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背幅虑。 一陣腳步聲響...
    開封第一講書人閱讀 31,993評(píng)論 1 266
  • 我被黑心中介騙來泰國(guó)打工丰滑, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人倒庵。 一個(gè)月前我還...
    沈念sama閱讀 46,382評(píng)論 2 360
  • 正文 我出身青樓褒墨,卻偏偏與公主長(zhǎng)得像炫刷,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子郁妈,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,543評(píng)論 2 349

推薦閱讀更多精彩內(nèi)容