個人感想
整個深度計算的流程屁魏,概括的來說秆撮。就是
定義隨機點(參數(shù)) --> 計算損失 --> 計算梯度--> 更新點(參數(shù)): 追求損失函數(shù)到滿意值的一個過程
而層相關(guān)的概念劳曹,主要是為了簡化計算捣辆。具體可以見第五章計算圖的說法蔬螟。而簡化計算。主要是兩個方面汽畴。
- 簡化正向計算旧巾,使得計算能夠比較方面的理解,一個層可以抽象為一種計算忍些。而整個AI的推演過程中鲁猩,這樣使得人能夠理解
- 簡化反向計算,也就是計算梯度罢坝,這樣可以方便的進(jìn)行一些更新參數(shù)
參數(shù)和超參的差異要了解廓握。
筆記
第六章閱讀筆記
看到這里,覺得這本書主要講了幾點嘁酿。
第一隙券,什么深度學(xué)習(xí),深度學(xué)習(xí)有多少相關(guān)的元素闹司。
第二娱仔,就是元素怎么優(yōu)化。
沒有將具體怎么設(shè)計或者說編排這些元素开仰。
激活函數(shù)(第三章)
損失函數(shù)的比較方法(第四章)
參數(shù)調(diào)試方式(五章)
一些雜項拟枚。權(quán)重薪铜,Normalization,防止過擬合恩溅,還有超參的調(diào)整(第六章)
第七章
關(guān)于卷積層
這里的卷積層隔箍,就好像中間有個鏤空的方格,把背景看一遍脚乡。然后每看一次的這個鏤空的地方看的東西蜒滩,獲得一個snapshot。報告
這個卷積層就好像是一個濾鏡奶稠,或者說特征俯艰。然后分析的是他的報告的感覺。
關(guān)于im2col函數(shù)
這個函數(shù)锌订,做的就是為了方便計算而做了一個轉(zhuǎn)換竹握。
卷積計算,其實是吧濾波器在原始數(shù)據(jù)上面一塊一塊的掃過去(做卷積計算)辆飘。
而這個啦辐,就是把一塊一塊變成一行數(shù)據(jù)。然后濾波器也是做一樣的事情蜈项。最后芹关,就是2維數(shù)據(jù)和2維數(shù)據(jù)之間做的計算。
就是為了方便一點紧卒。
其實這里我完全看不懂侥衬。這個im2col是怎么干的。就是知道他要把一個高緯度的東西拍平跑芳。
其實這里關(guān)鍵還是要有線性代數(shù)的知識轴总。腦子里面一片混亂啊。