出處:https://blog.keras.io/the-limitations-of-deep-learning.html
1.從幾何角度看DL
meaning(text/image..) -> vectors -> geometric spaces->learning geometric transformations?
局限:geometric transformations 關(guān)鍵在于可微(通過(guò)梯度下降學(xué)習(xí)參數(shù))攘宙,從inputs到outputs ?必須是光滑且連續(xù)的。
2.
DL本質(zhì):a chain of simple, continuous geometric transformations?mapping one vector space into another
但凡需要推理的螟左,如果編程黎休、應(yīng)用科學(xué)方法、長(zhǎng)期計(jì)劃等,甚至是學(xué)習(xí)一個(gè)升序排序翼虫,都很難。
現(xiàn)有的DL技術(shù)屡萤,加大數(shù)據(jù)量或是增加層只是表面地減輕這些問(wèn)題珍剑。
3.Neural Network并不真的理解人的思維,不具有人性化死陆,所以有時(shí)會(huì)出現(xiàn)很可笑的結(jié)果
4.Local generalization versus extreme generalization
機(jī)器:Local generalization
人:extreme generalization(抽象思維)
例子:學(xué)習(xí)降落月球參數(shù)(NN依賴大量數(shù)據(jù)招拙,人可以用抽象物理公式和模型)
學(xué)習(xí)駕駛(NN依賴大量數(shù)據(jù),換一座城市需要重新學(xué)習(xí))
總結(jié):現(xiàn)有的成功來(lái)源于continuous geometric transform以及大量人工標(biāo)注數(shù)據(jù)措译。