視頻鏈接:b站 有字幕 .?https://www.bilibili.com/video/av16388822/?from=search&seid=6753351402600537490
Lecture_1
主要說(shuō)了一些CV的歷史發(fā)展
1973年错负,如何識(shí)別物品,思想是復(fù)雜對(duì)象都是由簡(jiǎn)單元素組成的责鳍,例如圓柱體和圓形绳矩。
2000左右主要使用統(tǒng)計(jì)機(jī)器學(xué)習(xí)相關(guān)方法垢啼,例如SVM肮街,神經(jīng)網(wǎng)絡(luò)等铭拧。
在2011年惹恃, 上圖的最左側(cè),分層的傍睹,首先計(jì)算一些功能隔盛,接著計(jì)算本地的不變性,經(jīng)過(guò)加工后輸入給線性SVM
2012年拾稳,Hinton吮炕,七層卷積神經(jīng)網(wǎng)絡(luò),AlexNet
之后的網(wǎng)絡(luò)更深
CNN出現(xiàn)與1998年访得,貝爾實(shí)驗(yàn)室来屠,用于識(shí)別數(shù)字。經(jīng)過(guò)十幾年流行起來(lái)的原因1.計(jì)算機(jī)的計(jì)算能力增強(qiáng)。2.過(guò)去沒有很多有標(biāo)注的數(shù)據(jù)俱笛。
Lecture_2:
Image Classification pipeline
python學(xué)習(xí)鏈接:http://cs231n.github.io/python-numpy-tutorial/
google cloud使用地址:http://cs231n.github.io/gce-tutorial/
1. 根據(jù)邊界線----太脆弱了,效果不好传趾。
2. 神經(jīng)網(wǎng)絡(luò)分類器
1)分類器:最近鄰
數(shù)據(jù)集例子:CIFAR10迎膜,有10類,五萬(wàn)個(gè)訓(xùn)練集浆兰,一萬(wàn)個(gè)測(cè)試集
如何對(duì)比圖片:L1 distance
時(shí)間復(fù)雜度:訓(xùn)練O(1)磕仅,predict:O(N)
k近鄰可以使得分類更加準(zhǔn)確,邊緣更加平滑簸呈。
可視化:http://vision.stanford.edu/teaching/cs231n-demos/knn/
白色部分:沒有最近鄰的
選擇在驗(yàn)證集上表現(xiàn)最好的一組參數(shù)榕订,按照該參數(shù)訓(xùn)練好模型后,在測(cè)試集上跑的結(jié)果才出現(xiàn)在報(bào)告或者論文中蜕便。所以只有在最后才接觸測(cè)試集劫恒。
K近鄰方法不適用于圖像分類的原因:1. 圖像的相似性用L1或L2距離不適用。2.緯數(shù)災(zāi)難轿腺,緯數(shù)越高則越需要更多的數(shù)據(jù)去覆蓋空間两嘴。
2)線性分類器 Linear classifiers
最簡(jiǎn)單的模型為:參數(shù)模型,令輸入圖片為32x32x3族壳,偏置項(xiàng)不與訓(xùn)練數(shù)據(jù)交互憔辫,只是提供某種數(shù)據(jù)的獨(dú)立性。如果數(shù)據(jù)中喵占比例比汪大仿荆,那么就增加喵的偏置項(xiàng)
線性分類器為了學(xué)習(xí)一個(gè)模版贰您,如果這個(gè)類有什么變化,分類器會(huì)想要平衡所有的不同的外表拢操,而使用單一的模版锦亦。
線性分類器每個(gè)類只有一個(gè)模版
對(duì)于線性分類器來(lái)說(shuō)很難的案例: