本人只是出于興趣研究這個(gè)話題延欠,本人并非學(xué)者涛酗,或者從業(yè)者铡原,所以可能在寫作中出現(xiàn)技術(shù)上的硬傷偷厦,請(qǐng)各位指正。
本文可能根據(jù)業(yè)界最新進(jìn)展進(jìn)行更新燕刻, 歡迎來(lái)評(píng)論中進(jìn)行交流和研究只泼。
本文所引用的資料將嚴(yán)格標(biāo)明出處和版權(quán)。本文首發(fā)于簡(jiǎn)書平臺(tái)卵洗,博客園和本人公眾號(hào)请唱,請(qǐng)勿轉(zhuǎn)載
原文比較長(zhǎng),不適合閱讀过蹂,所以現(xiàn)在將其拆分為不同章節(jié)
疑問(wèn)
- filter的選擇問(wèn)題十绑,各個(gè)filter是怎么確定內(nèi)部的值的?
很多資料上就將filter內(nèi)部的數(shù)值稱為權(quán)重酷勺,所以本橙,應(yīng)該是需要計(jì)算的。 - 訓(xùn)練到底只是訓(xùn)練最后的全連接層鸥印,還是整個(gè)神經(jīng)網(wǎng)絡(luò)?
根據(jù)上面的答案坦报,整個(gè)訓(xùn)練對(duì)象應(yīng)該是全部網(wǎng)絡(luò)库说,所以非常消耗資源 - Mixed層的構(gòu)造如何去解讀,為什么會(huì)有這樣的構(gòu)造片择?
Inception結(jié)構(gòu)
參考資料
卷積神經(jīng)網(wǎng)絡(luò)工作原理直觀的解釋潜的?
[透析] 卷積神經(jīng)網(wǎng)絡(luò)CNN究竟是怎樣一步一步工作的?
TF-Slimを使ってTensorFlowを簡(jiǎn)潔に書く
深入淺出——網(wǎng)絡(luò)模型中Inception的作用與結(jié)構(gòu)全解析
零基礎(chǔ)入門深度學(xué)習(xí)(4) - 卷積神經(jīng)網(wǎng)絡(luò)
cs231n學(xué)習(xí)筆記-CNN-目標(biāo)檢測(cè)字管、定位啰挪、分割
A Note to Techniques in Convolutional Neural Networks and Their Influences III (paper summary)
理解dropout
CNN卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)綜述
沒(méi)有博士學(xué)位,照樣玩轉(zhuǎn)TensorFlow深度學(xué)習(xí)
TensorFlow 深度學(xué)習(xí)筆記 卷積神經(jīng)網(wǎng)絡(luò)
卷積:如何成為一個(gè)很厲害的神經(jīng)網(wǎng)絡(luò)
瞎談CNN:通過(guò)優(yōu)化求解輸入圖像
【卷積神經(jīng)網(wǎng)絡(luò)-進(jìn)化史】從LeNet到AlexNet