各位小伙伴們渴语,大家好,今天讓我們來如何用神經(jīng)網(wǎng)絡(luò)來處理非監(jiān)督的學(xué)習(xí)昆咽,也就是AutoEncoder,自編碼驾凶。
首先,我們聽到自編碼掷酗,一定會想到调违,AutoEncoder會是個什么碼呢?是條形碼泻轰,二維碼技肩,還是我們宅男們最不能忍受的打碼中的一種呢?NO.NO.NO浮声,和他們都沒有關(guān)系虚婿,其實(shí)自編碼是一種神經(jīng)網(wǎng)絡(luò)形式,如果你一定要和上面的那些碼扯上關(guān)系泳挥,我想可以這樣理解了雳锋。
現(xiàn)在我們先構(gòu)架一個神經(jīng)網(wǎng)絡(luò)模型,這個模型是收集一張圖片羡洁,接受這個圖片后,神經(jīng)網(wǎng)絡(luò)給這個圖片打碼爽丹,最后再從打碼的圖片中還原筑煮,是不是感覺有點(diǎn)抽象,其實(shí)我也覺得這樣的解釋不太恰當(dāng)粤蝎,那就讓我們更加的具體一點(diǎn)來深入了解下這個自編碼真仲。
現(xiàn)在假設(shè)我們剛才構(gòu)建的模型是這個樣子,我們可以從圖片中看出來初澎,我們剛才上傳給自編碼模型的圖片實(shí)質(zhì)上是經(jīng)過壓縮以后再進(jìn)行解壓的一個過程秸应。當(dāng)壓縮的時候虑凛,原有的圖片的質(zhì)量被縮減,解壓的時候软啼,用信息量小卻包含了所有信息的文件來恢復(fù)出原來的圖片桑谍。那么,為什么要這么做呢祸挪?當(dāng)神經(jīng)網(wǎng)絡(luò)要輸入大量的信息锣披,比如高清圖片的時候,輸入的圖像數(shù)量可以達(dá)到上千萬贿条,要神經(jīng)網(wǎng)絡(luò)直接從輸入的數(shù)據(jù)量中進(jìn)行學(xué)習(xí)雹仿,是一件非常費(fèi)力不討好的工作,因此我們就想整以,為什么不壓縮一下呢胧辽?提取出原圖片中最具有代表性的信息,縮減輸入中的信息量公黑,然后在把縮減過后的信息放入到神經(jīng)網(wǎng)絡(luò)中學(xué)習(xí)邑商,這樣學(xué)習(xí)起來就變得輕松了,所以自編碼就是能在這個時候發(fā)揮作用帆调,從上圖中的藍(lán)色框中的X解壓縮到黃色框中的x,然后用黃色的X和藍(lán)色的X進(jìn)行對比奠骄,得到預(yù)測誤差,再進(jìn)行反向傳遞番刊,然后逐步的提高自編碼的準(zhǔn)確率含鳞,訓(xùn)練一段時間后在中間獲得的哪一個部分黃色的L2就是源數(shù)據(jù)的精髓,可以從上面那個模型看出芹务,從頭到尾蝉绷,我們只用到了這個輸入的信息L1,并沒有用到數(shù)據(jù)X所對應(yīng)的數(shù)據(jù)標(biāo)簽枣抱,所以我們這時候可以得出結(jié)論熔吗,自編碼是一種非監(jiān)督學(xué)習(xí),通常我們在使用自編碼的時候通常只會使用自編碼的前半部分佳晶,這個部分也叫作EnCode,編碼器桅狠,編碼器可以得到源數(shù)據(jù)的精髓,
然后我們只需要在創(chuàng)建一個小的神經(jīng)網(wǎng)絡(luò)模型再去學(xué)習(xí)這個精髓中的數(shù)據(jù)轿秧,不僅可以減少神經(jīng)網(wǎng)絡(luò)的負(fù)擔(dān)中跌,并且同樣可以達(dá)到一個很好的效果。
上面這張圖是一個通過自編碼整理出來的數(shù)據(jù)菇篡,他能從各種數(shù)據(jù)中篩選總結(jié)出各種數(shù)據(jù)的特征漩符,如果把這個圖片的類型特征都整理好放到一個圖片上,那么數(shù)據(jù)類型都可以很好的用源數(shù)據(jù)的類型區(qū)分出來驱还,如果你了解PCA主成分分析嗜暴,自編碼的功能和他類似凸克,甚至在某些部分超出了PCA,換句話說,自編碼可以和PCA一樣可以給特殊屬性降維闷沥。
如果大家想了解更多的有關(guān)機(jī)器學(xué)習(xí)的知識和概念萎战,請大家多多關(guān)乎我的簡書賬戶,和我一起交流狐赡,更希望大家可以多多的指出我的不足撞鹉,讓我更加的進(jìn)步,謝謝颖侄。