-
第一課:介紹
ImgNet發(fā)展
最開始是人工抽取一些特征钞瀑,然后用SVM沈撞;
2012年某大學(xué)用了CNN取得了很好的進展;
2014年谷歌GoogLeNet雕什、牛津VGG加深了層數(shù)缠俺;
2015年微軟亞洲研究院更深的層數(shù),叫殘差網(wǎng)絡(luò)贷岸;
CNN發(fā)展
yanglekun發(fā)明了CNN用來進行手寫數(shù)字識別壹士;2012年ImgNet
為什么98年就發(fā)明了,2012年才流行起來偿警?
計算力躏救、GPU;
帶標簽數(shù)據(jù)增加螟蒸;
書籍
https://github.com/daviddao/deep-learning-book
http://www.deeplearningbook.org/
https://github.com/exacity/deeplearningbook-chinese
-
第二課:圖像分類流程
圖像分類很難盒使,所以我們用數(shù)據(jù)驅(qū)動的方式
k近鄰算法
簡單,但是效率很低七嫌,下面代碼距離采用L1
多個進行投票
超參數(shù)設(shè)置
近鄰算法缺點
慢少办;
圖像作為向量,然后用L1/L2進行比較圖片差距并不是一個很好的度量抄瑟。下圖中對圖像進行稍微的修改凡泣,遮擋,移動皮假,色調(diào)變化鞋拟,他們之間都跟原圖有一樣的距離,但很明顯他們跟原圖的差別并不是一樣的惹资。
線性分類
將線性分類器參數(shù)看作一幅圖片顯示出來贺纲,顏色深的地方表示權(quán)重越重。
將圖片看作高維空間上的點褪测,線性地被分開猴誊。
-
第三課 損失函數(shù)和優(yōu)化
損失函數(shù)
softmax之后得到概率潦刃,我們希望這個概率等于1的,越大越好懈叹,但是cost fun是衡量損失的乖杠,所以要加上負號。
SVM與下面這個的cost fun的不同澄成,SVM只要正確分類的分數(shù)大于其他分類超過一定界限就可以胧洒,下面這個是正確分類的分數(shù)越大越好!
優(yōu)化
隨機法(隨機選擇參數(shù)墨状,最后留下最好的)卫漫,15%的正確率;
梯度下降法
特征
因為是線性分類器肾砂,所以最好人工抽取一些特征列赎。
直方圖
HOG(histogram of oriented gradients)
Bag of words
跟CNN的對比