綜合
重磅命辖!深度學(xué)習(xí) 500 問(wèn)更新享扔,GitHub 2.6W 星(附完整下載) - 紅色石頭的文章 - 知乎
https://zhuanlan.zhihu.com/p/71979604
神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)(github,國(guó)人總結(jié)整理的)
https://nndl.github.io/
這是作者多年以來(lái)學(xué)習(xí)總結(jié)的筆記唬滑,經(jīng)整理之后開源于世肋乍。寫得相當(dāng)好:
http://www.huaxiaozhuan.com/
Faster R-CNN相關(guān)
(*****)一文讀懂Faster RCNN https://zhuanlan.zhihu.com/p/31426458 (強(qiáng)烈推薦,寫得是真的很好,錯(cuò)誤最少的一篇)
[***]從編程實(shí)現(xiàn)角度學(xué)習(xí)Faster R-CNN(附極簡(jiǎn)實(shí)現(xiàn))[https://zhuanlan.zhihu.com/p/32404424] (https://zhuanlan.zhihu.com/p/32404424) (其實(shí)我感覺作者自己也沒看懂, 拷貝了一份代碼改了改, 中間有些原理也是瞎幾把猜的)
作者實(shí)現(xiàn)了一版faster R-CNN, 定義了四個(gè)類: Dataset, Extractor ->提取特征, RPN->生成ROIs, RoIHead->對(duì)ROIs微調(diào), 重點(diǎn)看一下文中提到的anchors個(gè)數(shù)計(jì)算.[*]https://zhuanlan.zhihu.com/p/24916624 (重點(diǎn)講了RPN, 一般)
[****]Faster R-CNN: Down the rabbit hole of modern object detection https://tryolabs.com/blog/2018/01/18/faster-r-cnn-down-the-rabbit-hole-of-modern-object-detection/ (最牛的就是文中的高清大圖)
[**]深度學(xué)習(xí)目標(biāo)檢測(cè)模型全面綜述:Faster R-CNN剩盒、R-FCN和SSD https://zhuanlan.zhihu.com/p/29434605 (一篇寫給小白的歸納總結(jié)文, 沒啥深度, 能讓你了解三者的區(qū)別和來(lái)龍去脈, 背下來(lái)可以出去吹牛逼了)
[?]圖解Faster R-CNN: https://zhuanlan.zhihu.com/p/35481542 (這文就是個(gè)傳送門)
[*]目標(biāo)檢測(cè)第二話:Fast R-CNN和Faster R-CNN https://zhuanlan.zhihu.com/p/55495520 (講了個(gè)神馬, 隔靴搔癢, 文科生將大數(shù)據(jù)多么牛掰的感覺)
SSD
- 一文讀懂SSD目標(biāo)檢測(cè) https://zhuanlan.zhihu.com/p/31427288 (留下備用, 還沒看)
數(shù)據(jù)集
- [*****] 目標(biāo)檢測(cè)數(shù)據(jù)集PASCAL VOC簡(jiǎn)介 https://arleyzhang.github.io/articles/1dc20586/ (介紹數(shù)據(jù)集的, 挺詳細(xì))
Faster R-CNN實(shí)現(xiàn)
A faster pytorch implementation of faster r-cnn https://github.com/jwyang/faster-rcnn.pytorch (代碼質(zhì)量很好,但是有很多冗余, 作者用c實(shí)現(xiàn)了nms, roi_align的gpu版本, 但是最近torchvision的最新版里(0.3)似乎已經(jīng)支持gpu版本的nms和roi操作了,所以部分代碼可以刪去)
[*****]An easy implementation of Faster R-CNN (https://arxiv.org/pdf/1506.01497.pdf) in PyTorch.
https://github.com/potterhsu/easy-faster-rcnn.pytorch
(太特么重了!!)
ResNet
- 深度殘差網(wǎng)絡(luò) https://www.jiqizhixin.com/graph/technologies/738e788b-0e3b-4a8f-bd04-e407c7137694
(文中列出了ResNet的發(fā)展歷程)
- 從AlexNet到殘差網(wǎng)絡(luò)甘萧,理解卷積神經(jīng)網(wǎng)絡(luò)的不同架構(gòu) https://www.jiqizhixin.com/articles/2017-12-18-2 (簡(jiǎn)要介紹了AlexNet, vgg, resnet, GoogLeNet網(wǎng)絡(luò)的進(jìn)化史)
- 技術(shù)概述深度學(xué)習(xí):詳解前饋峭范、卷積和循環(huán)神經(jīng)網(wǎng)絡(luò) https://www.jiqizhixin.com/articles/2017-09-07-9 (講了激活函數(shù), 全連接, loss, 正則化, BP, 給出了各種網(wǎng)絡(luò)結(jié)構(gòu)的精簡(jiǎn)圖)
- 告別規(guī)范化财松!MIT 谷歌等提出全新殘差學(xué)習(xí)方法,效果驚艷 https://www.infoq.cn/article/LFPiwxMpsj0-Oqma3CIP (從另一個(gè)角度看待ResNet架構(gòu))
- ResNet學(xué)習(xí)筆記 https://zhuanlan.zhihu.com/p/32085715 (對(duì)2015年的kaming大神的Deep Residual Learning for Image Recognition的解讀, 還可以)
- resnet(殘差網(wǎng)絡(luò))的F(x)究竟長(zhǎng)什么樣子纱控?
大缺弦的回答 - 知乎
https://www.zhihu.com/question/53224378/answer/252507737
CrayonX的回答 - 知乎
https://www.zhihu.com/question/53224378/answer/169087864
菠蘿油條蝦的回答 - 知乎
https://www.zhihu.com/question/53224378/answer/194230021
強(qiáng)化學(xué)習(xí)全家桶
https://zhuanlan.zhihu.com/p/68950847
GAN
學(xué)習(xí)GAN必須閱讀的10篇論文
GAN萬(wàn)字長(zhǎng)文綜述
卷積網(wǎng)絡(luò)內(nèi)部機(jī)制
卷積思想理解辆毡、Convolutional Neural Network(CNN)卷積神經(jīng)網(wǎng)絡(luò)初探
YJango的卷積神經(jīng)網(wǎng)絡(luò)——介紹 - YJango的文章 - 知乎
https://zhuanlan.zhihu.com/p/27642620
卷積神經(jīng)網(wǎng)絡(luò)CNN完全指南終極版(一) - 沉迷學(xué)習(xí)的糕糕的文章 - 知乎
https://zhuanlan.zhihu.com/p/27908027