在前面章節(jié)中著摔,深入闡述了PyTorch和深度學(xué)習(xí)的基礎(chǔ)知識(shí)袄膏,包括PyTorch的安裝硕舆、常用命令和基本操作咽笼,講述了深度神經(jīng)網(wǎng)絡(luò)招刨、卷積神經(jīng)網(wǎng)絡(luò)夹供、循環(huán)...
前面提到了CNN和基于CNN的各類網(wǎng)絡(luò)及其在圖像處理上的應(yīng)用灵份。這類網(wǎng)絡(luò)有一個(gè)特點(diǎn),就是輸入和輸出都是固定長(zhǎng)度的哮洽。比方說在MNIST填渠、CIFAR-...
前面介紹了深度神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò),這些神經(jīng)網(wǎng)絡(luò)有個(gè)特點(diǎn):輸入的向量越大鸟辅,訓(xùn)練得到的模型越大氛什。但是,擁有大量參數(shù)模型的代價(jià)是昂貴的匪凉,它需要大量...
以全連接層為基礎(chǔ)的深度神經(jīng)網(wǎng)絡(luò)DNN是整個(gè)深度學(xué)習(xí)的基石枪眉。要說應(yīng)用最廣、影響最大的深度神經(jīng)網(wǎng)絡(luò)再层,那就是卷積神經(jīng)網(wǎng)絡(luò)(Convolutional ...
前面我們介紹了神經(jīng)網(wǎng)絡(luò)贸铜,包括神經(jīng)元函數(shù),激活函數(shù)聂受,前向算法蒿秦,反向傳播算法,梯度下降等蛋济,這些內(nèi)容基本上是傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的范疇棍鳖,這個(gè)浪潮大致在1980...
本節(jié)從神經(jīng)網(wǎng)絡(luò)的發(fā)展著手,依次介紹激活函數(shù)碗旅、前向算法鹊杖、損失函數(shù)、反向傳播算法以及PyTorch中的數(shù)據(jù)處理扛芽,最后使用PyTorch解決一個(gè)iri...
PyTorch的許多函數(shù)在使用上和Numpy幾乎一樣,能夠平滑地結(jié)合使用积瞒,Numpy的絕大多數(shù)操作同樣可以用在PyTorch中川尖。PyTorch的...
PyTorch的安裝非常簡(jiǎn)單,分為兩步: (1)安裝Anaconda這個(gè)網(wǎng)上教程很多,這里不再詳述叮喳。 (2)安裝PyTorch打開PyTorch...
圍棋號(hào)稱人類最復(fù)雜的棋類運(yùn)動(dòng)被芳,但近兩年來(lái),在AlphaGo的沖擊下馍悟,已經(jīng)潰不成軍畔濒。繼2016年AlphaGo以4:1擊敗韓國(guó)李世石,2017年A...