從0到1玩深度學(xué)習(xí)(0.02):PyTorch簡介

深度學(xué)習(xí)相比較于之前的數(shù)學(xué)模型而言更容易上手。大多數(shù)研究深度學(xué)習(xí)的人都是在用那些牛人們創(chuàng)造的模型年局,只需要換一個(gè)不同當(dāng)應(yīng)用级及,再重新調(diào)一調(diào)參數(shù),就可以開始著重編故事寫論文了蓖议。就連深度學(xué)習(xí)玩的非常溜的同事們也自嘲“調(diào)得一手好參數(shù)虏杰,編得一手好故事”。無論如何勒虾,深度學(xué)習(xí)平民化終歸是一件好事纺阔。

就在這種背景下,pytorch的出現(xiàn)更是加速了深度學(xué)習(xí)工具包的平民化修然。雖然研究深度學(xué)習(xí)對(duì)數(shù)學(xué)理論的要求沒那么深笛钝,但是深度學(xué)習(xí)工具包的使用還是讓很多久經(jīng)沙場(chǎng)的程序員們很頭疼的。比如一個(gè)新手配置一個(gè)caffe環(huán)境大概需要一個(gè)星期到一個(gè)月左右的時(shí)間愕宋,里面需要解決很多層出不窮的bug玻靡。雖然谷歌的tensorflow出現(xiàn)之后,這個(gè)情況有所緩解掏婶,但是tensorflow很難用啃奴。具體問題比如tensorflow無法直接把學(xué)習(xí)過程中的某一層網(wǎng)絡(luò)特征調(diào)出來看,也無法直接使用多個(gè)gpu進(jìn)行訓(xùn)練雄妥。當(dāng)然最蕾,國外有一篇文章對(duì)tensorflow給出了比較全面而深刻的評(píng)價(jià),大家可以移步:https://indico.io/blog/the-good-bad-ugly-of-tensorflow/老厌。

關(guān)于深度學(xué)習(xí)的其它工具包瘟则,我會(huì)在下一次教程里給出。這里不再細(xì)說枝秤。在這次教程里醋拧,我根據(jù)自己的理解,主要借鑒(翻譯)了PyTorch的官網(wǎng)上給出的教程淀弹,原文在http://pytorch.org/tutorials/丹壕。

PyTorch是什么

PyTorch是一款很實(shí)用的深度學(xué)習(xí)工具包,比之前的谷歌推出的TensorFlow薇溃,微軟推出的CNTK菌赖,以及一些其他工具包Caffe,Theano沐序,MatConvNet琉用,MXNet要方便不少。

PyTorch的前身是Torch策幼。Torch這個(gè)工具包本身很好用邑时,但是因?yàn)樗怯梢婚T很小眾的編程語言Lua寫成,所以大多數(shù)人還是選用基于Python語言的TensorFlow特姐。Facebook的深度學(xué)習(xí)組的大牛們一看晶丘,哇,原來Python的受眾群這么大唐含,于是放下身段铣口,放棄了高逼格的Lua語言滤钱,改用Python語言重新寫了一遍Torch工具包,并在很多方面有了明顯的改進(jìn)脑题。于是,在今年年初铜靶,工業(yè)界和學(xué)術(shù)界評(píng)價(jià)最好的深度學(xué)習(xí)工具包PyTorch誕生了叔遂!誕生沒多久,使用PyTorch的科學(xué)家和工程師們就急速上升争剿,見下圖:

PyTorch出現(xiàn)不到2個(gè)月已艰,在github上使用其新成立的項(xiàng)目就多達(dá)1201個(gè),迅速上升至第4位蚕苇。最近的數(shù)據(jù)我暫時(shí)沒有找到哩掺,等有空專門搜索一下再提供給大家參考。

正如官網(wǎng)上說的涩笤,PyTorch有兩大特點(diǎn):可以有效利用GPU(use the power of GPUs)和提供了最大的靈活性和速度(provides maximum flexibility and speed)嚼吞。

Tensors(張量)

Tensor的中文意思是張量,張量是一種數(shù)據(jù)結(jié)構(gòu)的通用表現(xiàn)形式蹬碧。張量是分不同的階的舱禽。一個(gè)數(shù)字是0階張量,一個(gè)向量是1階張量恩沽,我們常用的矩陣是2階張量誊稚。大家可以通過下圖有一個(gè)直觀的感受:

在PyTorch中,Tensors和numpy中的ndarrays較為相似, 因此Tensor也能夠使用GPU來加速運(yùn)算罗心。

在python界面里里伯,我們可以先引入torch:

from __future__ import print_function

import torch

然后我們可以用Tensor構(gòu)造一個(gè)矩陣,比如

x=torch.Tensor(5,3)

print(x)

輸出的是一個(gè)5x3的矩陣渤闷,沒有初始化:

我們也可以用傳統(tǒng)的random模式構(gòu)建隨機(jī)矩陣:

x=torch.rand(5,3)

print(x)

輸出的是一個(gè)5x3的矩陣疾瓮,有初始化:

既然我們可以產(chǎn)生任意維度的張量,那么我們就可以在這些量上定義加肤晓、減爷贫、乘、除等操作补憾,比如最簡單的加法:

x=torch.rand(5,3)

y=torch.rand(5,3)

print(x+y) 或 print(torch.add(x,y))

我們得到:

如果我們需要把x+y作為一個(gè)結(jié)果存起來漫萄,也很容易:

result=torch.Tensor(5,3)

torch.add(x,y,out=result)

print(result)

得到的結(jié)果和上圖中的結(jié)果一樣。

如果只想看矩陣中的某一列盈匾,可以用

print(x[:,1])


以后我會(huì)詳細(xì)介紹PyTorch中的100多種Tensor操作腾务,對(duì),你沒看錯(cuò)削饵,操作有100多種岩瘦,時(shí)刻讓你有一種“還有這種操作未巫?!”的錯(cuò)覺启昧!

Troch張量和Numpy數(shù)組的互相轉(zhuǎn)換

我們把PyTorch中的張量轉(zhuǎn)變成Python中常用的Numpy數(shù)組也是非常容易的事情叙凡。

先在torch中定義一個(gè)tensor,如

a=torch.ones(5)

print(a)

得到的是

我們把a(bǔ)轉(zhuǎn)成numpy中的數(shù)組只需要執(zhí)行代碼:

b=a.numpy()

print(b)

得到的是[1.1.1.1.1.]這樣的數(shù)組密末。

我們改變數(shù)組a的值也很容易(b的值也被改變)握爷,比如

a.add_(1)

print(a)

print(b)

把numpy數(shù)組轉(zhuǎn)成torch中的張量也很簡單,只需要torch.from_numpy這個(gè)指令:

import numpy as np?

a=np.ones(5)

b=torch.from_numpy(a)

np.add(a,1,out=a)

print(a)

print(b)

我們得到

GPU中的Tensor

把數(shù)據(jù)放在GPU上處理是很有必要的严里,因?yàn)镚PU比CPU更適合處理張量數(shù)據(jù)模式新啼。

如果我們想在GPU上處理數(shù)據(jù),只需要在電腦里裝上合適版本的CUDA刹碾,并用到.cuda函數(shù)就可以了燥撞。

# let us run this cell only if CUDA is available

if torch.cuda.is_available():

? ? ? ? ?x=x.cuda()

? ? ? ? ?y=y.cuda()

? ? ? ? ?x+y

上面的代碼里,我們就把x通過x.cuda()放在了GPU上迷帜,并且讓x和同樣在GPU里的y相加物舒。

本教程代碼

本教程的代碼可以在這里下載:http://pytorch.org/tutorials/_downloads/tensor_tutorial.py

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市瞬矩,隨后出現(xiàn)的幾起案子茶鉴,更是在濱河造成了極大的恐慌,老刑警劉巖景用,帶你破解...
    沈念sama閱讀 219,490評(píng)論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件涵叮,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡伞插,警方通過查閱死者的電腦和手機(jī)割粮,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,581評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來媚污,“玉大人舀瓢,你說我怎么就攤上這事『拿溃” “怎么了京髓?”我有些...
    開封第一講書人閱讀 165,830評(píng)論 0 356
  • 文/不壞的土叔 我叫張陵,是天一觀的道長商架。 經(jīng)常有香客問我堰怨,道長,這世上最難降的妖魔是什么蛇摸? 我笑而不...
    開封第一講書人閱讀 58,957評(píng)論 1 295
  • 正文 為了忘掉前任备图,我火速辦了婚禮,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘揽涮。我一直安慰自己抠藕,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,974評(píng)論 6 393
  • 文/花漫 我一把揭開白布蒋困。 她就那樣靜靜地躺著盾似,像睡著了一般。 火紅的嫁衣襯著肌膚如雪家破。 梳的紋絲不亂的頭發(fā)上颜说,一...
    開封第一講書人閱讀 51,754評(píng)論 1 307
  • 那天,我揣著相機(jī)與錄音汰聋,去河邊找鬼。 笑死喊积,一個(gè)胖子當(dāng)著我的面吹牛烹困,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播乾吻,決...
    沈念sama閱讀 40,464評(píng)論 3 420
  • 文/蒼蘭香墨 我猛地睜開眼髓梅,長吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來了绎签?” 一聲冷哼從身側(cè)響起枯饿,我...
    開封第一講書人閱讀 39,357評(píng)論 0 276
  • 序言:老撾萬榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎诡必,沒想到半個(gè)月后奢方,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,847評(píng)論 1 317
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡爸舒,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,995評(píng)論 3 338
  • 正文 我和宋清朗相戀三年蟋字,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片扭勉。...
    茶點(diǎn)故事閱讀 40,137評(píng)論 1 351
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡鹊奖,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出涂炎,到底是詐尸還是另有隱情忠聚,我是刑警寧澤,帶...
    沈念sama閱讀 35,819評(píng)論 5 346
  • 正文 年R本政府宣布唱捣,位于F島的核電站两蟀,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏爷光。R本人自食惡果不足惜垫竞,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,482評(píng)論 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧欢瞪,春花似錦活烙、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,023評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至骑祟,卻和暖如春回懦,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背次企。 一陣腳步聲響...
    開封第一講書人閱讀 33,149評(píng)論 1 272
  • 我被黑心中介騙來泰國打工怯晕, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人缸棵。 一個(gè)月前我還...
    沈念sama閱讀 48,409評(píng)論 3 373
  • 正文 我出身青樓舟茶,卻偏偏與公主長得像,于是被迫代替她去往敵國和親堵第。 傳聞我的和親對(duì)象是個(gè)殘疾皇子吧凉,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,086評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容