pytorch學(xué)習(xí)筆記(一) model的cuda運(yùn)行极颓,torch.unsqueeze

官方docs: http://pytorch.org/docs/master/
中文版docs: http://pytorch-cn.readthedocs.io/zh/latest/

最近在看廖星宇寫的<<深度學(xué)習(xí)入門之pytorch>>芳绩,發(fā)現(xiàn)了一些問題(可能是版本問題)徘溢,在這邊總結(jié)一下:
書中代碼地址https://github.com/SherlockLiao/code-of-learn-deep-learning-with-pytorch/tree/master/
本文代碼地址https://github.com/qianhaoq/pytorch_test

一.第三章線性回歸的代碼實(shí)現(xiàn)中,3.2.4章代碼實(shí)現(xiàn)的問題

在該章中彻磁, 原文把模型放在cuda上采用了如下代碼:

if torch.cuda.is_available():
    model = LinearRegression().cuda()
else:
    model = LinearRegression()

本來很好理解,就是cuda可用時(shí)就把模型放在cuda上運(yùn)行佃扼,整個(gè)程序?qū)懴聛碣顺玻趖orch.cuda.is_available()為false的情況下是可運(yùn)行的蔼夜,但在cuda為avaliable的時(shí)候,會(huì)報(bào)如下錯(cuò)誤:

Epoch[920/1000], loss:0.169177
Epoch[940/1000], loss:0.169152
Epoch[960/1000], loss:0.169129
Epoch[980/1000], loss:0.169108
Epoch[1000/1000], loss:0.169089
Traceback (most recent call last):
  File "linear.py", line 93, in <module>
    predict = model(Variable(x_train))
  File "/home/qh/anaconda3/lib/python3.6/site-packages/torch/nn/modules/module.py", line 224, in __call__
    result = self.forward(*input, **kwargs)
  File "linear.py", line 37, in forward
    out = self.linear(x)
  File "/home/qh/anaconda3/lib/python3.6/site-packages/torch/nn/modules/module.py", line 224, in __call__
    result = self.forward(*input, **kwargs)
  File "/home/qh/anaconda3/lib/python3.6/site-packages/torch/nn/modules/linear.py", line 53, in forward
    return F.linear(input, self.weight, self.bias)
  File "/home/qh/anaconda3/lib/python3.6/site-packages/torch/nn/functional.py", line 553, in linear
    return torch.addmm(bias, input, weight.t())
  File "/home/qh/anaconda3/lib/python3.6/site-packages/torch/autograd/variable.py", line 924, in addmm
    return cls._blas(Addmm, args, False)
  File "/home/qh/anaconda3/lib/python3.6/site-packages/torch/autograd/variable.py", line 920, in _blas
    return cls.apply(*(tensors + (alpha, beta, inplace)))
  File "/home/qh/anaconda3/lib/python3.6/site-packages/torch/autograd/_functions/blas.py", line 26, in forward
    matrix1, matrix2, out=output)
TypeError: torch.addmm received an invalid combination of arguments - got (int, torch.cuda.FloatTensor, int, torch.FloatTensor, torch.cuda.FloatTensor, out=torch.cuda.FloatTensor), but expected one of:
 * (torch.cuda.FloatTensor source, torch.cuda.FloatTensor mat1, torch.cuda.FloatTensor mat2, *, torch.cuda.FloatTensor out)
 * (torch.cuda.FloatTensor source, torch.cuda.sparse.FloatTensor mat1, torch.cuda.FloatTensor mat2, *, torch.cuda.FloatTensor out)
 * (float beta, torch.cuda.FloatTensor source, torch.cuda.FloatTensor mat1, torch.cuda.FloatTensor mat2, *, torch.cuda.FloatTensor out)
 * (torch.cuda.FloatTensor source, float alpha, torch.cuda.FloatTensor mat1, torch.cuda.FloatTensor mat2, *, torch.cuda.FloatTensor out)
 * (float beta, torch.cuda.FloatTensor source, torch.cuda.sparse.FloatTensor mat1, torch.cuda.FloatTensor mat2, *, torch.cuda.FloatTensor out)
 * (torch.cuda.FloatTensor source, float alpha, torch.cuda.sparse.FloatTensor mat1, torch.cuda.FloatTensor mat2, *, torch.cuda.FloatTensor out)
 * (float beta, torch.cuda.FloatTensor source, float alpha, torch.cuda.FloatTensor mat1, torch.cuda.FloatTensor mat2, *, torch.cuda.FloatTensor out)
      didn't match because some of the arguments have invalid types: (int, torch.cuda.FloatTensor, int, torch.FloatTensor, torch.cuda.FloatTensor, out=torch.cuda.FloatTensor)
 * (float beta, torch.cuda.FloatTensor source, float alpha, torch.cuda.sparse.FloatTensor mat1, torch.cuda.FloatTensor mat2, *, torch.cuda.FloatTensor out)
      didn't match because some of the arguments have invalid types: (int, torch.cuda.FloatTensor, int, torch.FloatTensor, torch.cuda.FloatTensor, out=torch.cuda.FloatTensor)

可以看到是預(yù)測(cè)模型這塊的問題压昼,在底層的數(shù)據(jù)類型不匹配造成的求冷,我嘗試過通過 tensor.cpu()等方法強(qiáng)制使用cpu()來處理瘤运,但這樣也是去了利用gpu計(jì)算的優(yōu)勢(shì),在pytorch的官方github的issus上有人提過類似的問題匠题,地址如下:
https://github.com/pytorch/pytorch/issues/1472
里面有人提出了一個(gè)解決方案拯坟,即使用

    model = LinearRegression()
    model = torch.nn.DataParallel(model).cuda()

代替

    model = LinearRegression().cuda()

問題解決


成功運(yùn)行截圖

二. 關(guān)于pytorch中 torch.squeeze和torch.unsqueeze的使用說明
剛接觸這一塊的時(shí)候不太了解這2個(gè)函數(shù)的作用以及使用方法,查閱了官方docs后大致了解掌握韭山,在此記錄下:

     torch.squeeze(input, dim=None, out=None)
     Returns a Tensor with all the dimensions of input of size 1 removed.
     默認(rèn)是去掉所有維度中維度大小為1的維度并返回
     若指定了dim(從0開始)郁季,則判斷該維度大小是否為1,若為1則去掉

examples


去掉所有1維向量
     torch.unsqueeze(input, dim, out=None)
     Returns a new tensor with a dimension of size one inserted at the specified position.
     在指定位置插入一個(gè)1維tensor

examples


2017-12-01 18-08-57屏幕截圖.png
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市钱磅,隨后出現(xiàn)的幾起案子梦裂,更是在濱河造成了極大的恐慌,老刑警劉巖盖淡,帶你破解...
    沈念sama閱讀 219,188評(píng)論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件年柠,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡褪迟,警方通過查閱死者的電腦和手機(jī)冗恨,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,464評(píng)論 3 395
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來味赃,“玉大人掀抹,你說我怎么就攤上這事⌒乃祝” “怎么了渴丸?”我有些...
    開封第一講書人閱讀 165,562評(píng)論 0 356
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)另凌。 經(jīng)常有香客問我谱轨,道長(zhǎng),這世上最難降的妖魔是什么吠谢? 我笑而不...
    開封第一講書人閱讀 58,893評(píng)論 1 295
  • 正文 為了忘掉前任土童,我火速辦了婚禮,結(jié)果婚禮上工坊,老公的妹妹穿的比我還像新娘献汗。我一直安慰自己,他們只是感情好王污,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,917評(píng)論 6 392
  • 文/花漫 我一把揭開白布罢吃。 她就那樣靜靜地躺著,像睡著了一般昭齐。 火紅的嫁衣襯著肌膚如雪尿招。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,708評(píng)論 1 305
  • 那天,我揣著相機(jī)與錄音就谜,去河邊找鬼怪蔑。 笑死,一個(gè)胖子當(dāng)著我的面吹牛丧荐,可吹牛的內(nèi)容都是我干的缆瓣。 我是一名探鬼主播,決...
    沈念sama閱讀 40,430評(píng)論 3 420
  • 文/蒼蘭香墨 我猛地睜開眼虹统,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼弓坞!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起车荔,我...
    開封第一講書人閱讀 39,342評(píng)論 0 276
  • 序言:老撾萬榮一對(duì)情侶失蹤昼丑,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后夸赫,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體菩帝,經(jīng)...
    沈念sama閱讀 45,801評(píng)論 1 317
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,976評(píng)論 3 337
  • 正文 我和宋清朗相戀三年茬腿,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了呼奢。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 40,115評(píng)論 1 351
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡切平,死狀恐怖握础,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情悴品,我是刑警寧澤禀综,帶...
    沈念sama閱讀 35,804評(píng)論 5 346
  • 正文 年R本政府宣布,位于F島的核電站苔严,受9級(jí)特大地震影響定枷,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜届氢,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,458評(píng)論 3 331
  • 文/蒙蒙 一欠窒、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧退子,春花似錦岖妄、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,008評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至丸凭,卻和暖如春福扬,著一層夾襖步出監(jiān)牢的瞬間腕铸,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 33,135評(píng)論 1 272
  • 我被黑心中介騙來泰國打工忧换, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留恬惯,地道東北人向拆。 一個(gè)月前我還...
    沈念sama閱讀 48,365評(píng)論 3 373
  • 正文 我出身青樓亚茬,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國和親浓恳。 傳聞我的和親對(duì)象是個(gè)殘疾皇子刹缝,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,055評(píng)論 2 355

推薦閱讀更多精彩內(nèi)容

  • 本次筆記使用的材料是2018版的斯坦福計(jì)算機(jī)課程Lecture8的ppt,相較于2017版改動(dòng)了一些內(nèi)容颈将,總體是比...
    HRain閱讀 951評(píng)論 0 1
  • 本文代碼基于PyTorch 1.0版本梢夯,需要用到以下包 1. 基礎(chǔ)配置 檢查PyTorch版本 更新PyTorch...
    婉妃閱讀 2,857評(píng)論 0 13
  • 只想來見你一面,已是父親這輩子最深情的表達(dá)晴圾。 2017年8月26日 星期六 晴轉(zhuǎn)多云 記憶中颂砸,父親在身邊的日子...
    涂涂tyf閱讀 775評(píng)論 9 8
  • 這些天一直有講自己的簡(jiǎn)歷刷新,遇到認(rèn)為可以的就去面試死姚,遇到合適的開始工作吧人乓,孩子還小,我才需要更加的努力呀都毒,我...
    黑胡子船長(zhǎng)22閱讀 161評(píng)論 0 0
  • 你喜歡精明的人嗎账劲?那個(gè)人很聰明戳护,和他在一起,會(huì)萬事周全瀑焦,但是腌且,那個(gè)人,對(duì)身邊的人榛瓮,都太精明切蟋,對(duì)你也是,這樣的人榆芦,你...
    九辭_64f1閱讀 365評(píng)論 0 0