Day14 8.1 加深學(xué)習(xí)網(wǎng)絡(luò) 8.1.1 向更深的網(wǎng)絡(luò)出發(fā) 構(gòu)建一個進行MNIST手寫數(shù)字識別的深度CNN: (Conv -> ReLU -...
Day13 CNN的實現(xiàn)&CNN可視化&具有代表性的CNN 7.5 CNN的實現(xiàn) 按照Convolution -> ReLU -> Poolin...
Day12 7.3 池化層 池化是縮小高捞慌、長方向上空間的運算 圖像領(lǐng)域主要使用Max Pooling 池化層的特征 沒有要學(xué)習(xí)的參數(shù) 通道數(shù)不發(fā)...
Day11 整體結(jié)構(gòu)&卷積層 7.1 整體結(jié)構(gòu) Conv -> ReLU -> (Pooling)類比 Affine -> ReLU 7.2 卷...
Day 9 6.1 參數(shù)的更新 6.2 權(quán)重初始值 6.2.1 權(quán)重初始化為0考杉? 權(quán)值衰減是一種通過減小權(quán)重參數(shù)的值來抑制過擬合的方法锰提。 不能將...
計算圖&鏈式法則&反向傳播 1.計算圖 數(shù)據(jù)結(jié)構(gòu)中的圖結(jié)構(gòu)坤溃,用點表示數(shù)據(jù)節(jié)點甲雅,線表示節(jié)點之間的關(guān)系昨稼。工程項目管理中的雙代號網(wǎng)絡(luò)計劃圖瞒瘸,用節(jié)點表示...
Day 5 從數(shù)據(jù)中學(xué)習(xí) “學(xué)習(xí)”這個詞該怎樣理解侣诺?用一個同樣領(lǐng)域的詞來替代,可以認為是“訓(xùn)練”择葡。所謂學(xué)習(xí)或訓(xùn)練紧武,即是讓模型通過優(yōu)化算法在數(shù)據(jù)中...
Day4 1.三層神經(jīng)網(wǎng)絡(luò)(forward propagation) 2.輸出層的設(shè)計 3.手寫數(shù)字圖像識別
Day 3 從感知機到復(fù)雜神經(jīng)網(wǎng)絡(luò) 簡單理解剃氧,感知機可看作是激活函數(shù)為階躍函數(shù)的“神經(jīng)元”敏储。而許多神經(jīng)元進行串、并聯(lián)可以構(gòu)成復(fù)雜的神經(jīng)網(wǎng)絡(luò)朋鞍,并隨...