AI學(xué)習(xí)筆記——Autoencoders(自編碼器)

Autoencoder 的基本概念

之前的文章介紹過(guò)機(jī)器學(xué)習(xí)中的監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí),其中非監(jiān)督學(xué)習(xí)簡(jiǎn)單來(lái)說(shuō)就是學(xué)習(xí)人類沒(méi)有標(biāo)記過(guò)的數(shù)據(jù)优训。對(duì)于沒(méi)有標(biāo)記的數(shù)據(jù)最常見(jiàn)的應(yīng)用就是通過(guò)聚類(Clustering)的方式將數(shù)據(jù)進(jìn)行分類朵你。對(duì)于這些數(shù)據(jù)來(lái)說(shuō)通常有非常多的維度或者說(shuō)Features。如何降低這些數(shù)據(jù)的維度或者說(shuō)“壓縮”數(shù)據(jù)揣非,從而減輕模型學(xué)習(xí)的負(fù)擔(dān)抡医,我們就要用到Autoencoder了。

用Autoencoder 給數(shù)據(jù)“壓縮”和降維不僅能夠給機(jī)器“減壓”早敬,同時(shí)也有利于數(shù)據(jù)的可視化(人類只能看懂三維的數(shù)據(jù))忌傻。

Autoencoder 實(shí)際上跟普通的神經(jīng)網(wǎng)絡(luò)沒(méi)有什么本質(zhì)的區(qū)別毛仪,分為輸入層,隱藏層和輸出層芯勘。唯一比較特殊的是箱靴,輸入層的輸入feature的數(shù)量(也就是神經(jīng)元的數(shù)量)要等于輸出層。同時(shí)要保證輸入和輸出相等荷愕。

結(jié)構(gòu)大概就是如圖所示


因?yàn)檩敵鲆扔谳斎牒饣常灾虚g的每一層都最大程度地保留了原有的數(shù)據(jù)信息,但是由于神經(jīng)元個(gè)數(shù)發(fā)生了變化安疗,數(shù)據(jù)的維度也就發(fā)生了變化抛杨。比如上圖的中間層(第三層)只有兩個(gè)神經(jīng)元,那么這一層輸出的結(jié)果實(shí)際上就是二維的數(shù)據(jù)結(jié)構(gòu)荐类。我們就可以用這一層的輸出結(jié)果進(jìn)行無(wú)監(jiān)督學(xué)習(xí)分類怖现,或者做視覺(jué)化的展示。

簡(jiǎn)化的Autoencoder

對(duì)于Autoencoder從輸入層到最中間層的數(shù)據(jù)處理過(guò)程叫做數(shù)據(jù)編碼(Encode)過(guò)程玉罐,從中間層到輸出層則為解碼(Decode)過(guò)程屈嗤,最后保證輸出等于輸入。

Autoencoder的隱藏層可以是多層也可以是單層吊输,這里我用一個(gè)只有一層隱藏層的Autoencoder的實(shí)例來(lái)介紹Autoencoder.

Autoencoder實(shí)例代碼

1饶号、導(dǎo)入需要用到的庫(kù)
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
2、創(chuàng)建一個(gè)三維的數(shù)據(jù)

這里用sklearn 的一個(gè)make_blobs的工具創(chuàng)造有兩個(gè)聚集點(diǎn)的三維數(shù)據(jù)

from sklearn.datasets import make_blobs
data = make_blobs(n_samples=100, n_features=3,centers=2,random_state=101)

數(shù)據(jù)長(zhǎng)這個(gè)樣子



注意data[0]是100x3的數(shù)據(jù)(100個(gè)點(diǎn)季蚂,3個(gè)features(維度))

3. 搭建神經(jīng)網(wǎng)絡(luò)

下面用Tensorflow Layers來(lái)搭一個(gè)三層的全連接的神經(jīng)網(wǎng)路茫船,輸入層,隱藏層和輸出層的神經(jīng)元個(gè)數(shù)分別是3扭屁,2算谈,3。

import tensorflow as tf
from tensorflow.contrib.layers import fully_connected

num_inputs = 3  # 3 dimensional input
num_hidden = 2  # 2 dimensional representation 
num_outputs = num_inputs # Must be true for an autoencoder!

learning_rate = 0.01

Placeholder,Layers,Loss Function 和 Optimizer

#Placeholder
X = tf.placeholder(tf.float32, shape=[None, num_inputs])
#Layers
hidden = fully_connected(X, num_hidden, activation_fn=None)
outputs = fully_connected(hidden, num_outputs, activation_fn=None)
#Loss Function
loss = tf.reduce_mean(tf.square(outputs - X))  # MSE
#Optimizer
optimizer = tf.train.AdamOptimizer(learning_rate)
train  = optimizer.minimize( loss)
#Init
init = tf.global_variables_initializer()

4. 訓(xùn)練神經(jīng)網(wǎng)絡(luò)

num_steps = 1000

with tf.Session() as sess:
    sess.run(init)
    
    for iteration in range(num_steps):
        sess.run(train,feed_dict={X: scaled_data})

        
    # Now ask for the hidden layer output (the 2 dimensional output)
    output_2d = hidden.eval(feed_dict={X: scaled_data})

注意:output_2d就是中間層輸出的結(jié)果料滥,這是一個(gè)二維(100x2)的數(shù)據(jù)然眼。

這個(gè)數(shù)據(jù)長(zhǎng)這個(gè)樣子


4.總結(jié)

從上面的例子可以看到,Autoencoder 不是簡(jiǎn)單地去掉一個(gè)維度幔欧,而是通過(guò)編碼的過(guò)程將數(shù)據(jù)“壓縮”到二維罪治。這些數(shù)據(jù)通過(guò)解碼過(guò)程可以再次在輸出層輸出三維的數(shù)據(jù),并且保留了元數(shù)據(jù)的兩個(gè)積聚點(diǎn)礁蔗。

上面只是一個(gè)非常簡(jiǎn)單的將三維數(shù)據(jù)通過(guò)Autoencoder降到二維空間觉义,當(dāng)數(shù)據(jù)的feature 太多的時(shí)候,通過(guò)Autoencoder 就可以在最大限度保留原數(shù)據(jù)的信息并降低源數(shù)據(jù)的維度浴井。

————
相關(guān)文章
AI學(xué)習(xí)筆記——循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的基本概念
AI學(xué)習(xí)筆記——神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)
AI學(xué)習(xí)筆記——卷積神經(jīng)網(wǎng)絡(luò)1(CNN)
————
首發(fā)steemit

歡迎掃描二維碼關(guān)注我的微信公眾號(hào)“tensorflow機(jī)器學(xué)習(xí)”晒骇,一起學(xué)習(xí),共同進(jìn)步


image
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市洪囤,隨后出現(xiàn)的幾起案子徒坡,更是在濱河造成了極大的恐慌,老刑警劉巖瘤缩,帶你破解...
    沈念sama閱讀 222,807評(píng)論 6 518
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件喇完,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡剥啤,警方通過(guò)查閱死者的電腦和手機(jī)锦溪,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 95,284評(píng)論 3 399
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)府怯,“玉大人刻诊,你說(shuō)我怎么就攤上這事∥” “怎么了则涯?”我有些...
    開(kāi)封第一講書人閱讀 169,589評(píng)論 0 363
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)冲簿。 經(jīng)常有香客問(wèn)我粟判,道長(zhǎng),這世上最難降的妖魔是什么民假? 我笑而不...
    開(kāi)封第一講書人閱讀 60,188評(píng)論 1 300
  • 正文 為了忘掉前任浮入,我火速辦了婚禮龙优,結(jié)果婚禮上羊异,老公的妹妹穿的比我還像新娘。我一直安慰自己彤断,他們只是感情好野舶,可當(dāng)我...
    茶點(diǎn)故事閱讀 69,185評(píng)論 6 398
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著宰衙,像睡著了一般平道。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上供炼,一...
    開(kāi)封第一講書人閱讀 52,785評(píng)論 1 314
  • 那天一屋,我揣著相機(jī)與錄音,去河邊找鬼袋哼。 笑死冀墨,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的涛贯。 我是一名探鬼主播诽嘉,決...
    沈念sama閱讀 41,220評(píng)論 3 423
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了虫腋?” 一聲冷哼從身側(cè)響起骄酗,我...
    開(kāi)封第一講書人閱讀 40,167評(píng)論 0 277
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎悦冀,沒(méi)想到半個(gè)月后趋翻,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 46,698評(píng)論 1 320
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡盒蟆,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 38,767評(píng)論 3 343
  • 正文 我和宋清朗相戀三年嘿歌,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片茁影。...
    茶點(diǎn)故事閱讀 40,912評(píng)論 1 353
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡宙帝,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出募闲,到底是詐尸還是另有隱情步脓,我是刑警寧澤,帶...
    沈念sama閱讀 36,572評(píng)論 5 351
  • 正文 年R本政府宣布浩螺,位于F島的核電站靴患,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏要出。R本人自食惡果不足惜鸳君,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 42,254評(píng)論 3 336
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望患蹂。 院中可真熱鬧或颊,春花似錦、人聲如沸传于。這莊子的主人今日做“春日...
    開(kāi)封第一講書人閱讀 32,746評(píng)論 0 25
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)沼溜。三九已至平挑,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間系草,已是汗流浹背通熄。 一陣腳步聲響...
    開(kāi)封第一講書人閱讀 33,859評(píng)論 1 274
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留找都,地道東北人唇辨。 一個(gè)月前我還...
    沈念sama閱讀 49,359評(píng)論 3 379
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像檐嚣,于是被迫代替她去往敵國(guó)和親助泽。 傳聞我的和親對(duì)象是個(gè)殘疾皇子啰扛,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 45,922評(píng)論 2 361

推薦閱讀更多精彩內(nèi)容

  • 文章主要分為:一、深度學(xué)習(xí)概念嗡贺;二隐解、國(guó)內(nèi)外研究現(xiàn)狀;三诫睬、深度學(xué)習(xí)模型結(jié)構(gòu)煞茫;四、深度學(xué)習(xí)訓(xùn)練算法摄凡;五续徽、深度學(xué)習(xí)的優(yōu)點(diǎn)...
    艾剪疏閱讀 21,851評(píng)論 0 58
  • 五、Deep Learning的基本思想 假設(shè)我們有一個(gè)系統(tǒng)S亲澡,它有n層(S1,…Sn)钦扭,它的輸入是I,輸出是O床绪,...
    dma_master閱讀 1,656評(píng)論 1 2
  • 平凡的人沒(méi)有聰慧的大腦癞己,沒(méi)有顯赫的背景膀斋,唯一有的只是他們自己,都說(shuō)努力可以改變?nèi)松匝牛纱蠖鄶?shù)努力仍舊失敗仰担,像今年的...
    朝凡閱讀 725評(píng)論 0 0
  • 一铃将、目的和預(yù)算 首先项鬼,你應(yīng)當(dāng)考慮如何使用你的新吉他。然后再考慮你可以付出多少錢去買一把吉他劲阎。或許是一個(gè)有著豐富演奏...
    吉他范兒閱讀 3,544評(píng)論 1 27