神經(jīng)網(wǎng)絡(luò)算法的優(yōu)勢(shì)與應(yīng)用
人工神經(jīng)網(wǎng)絡(luò)(ANN)以大腦處理機(jī)制作為基礎(chǔ),開發(fā)用于建立復(fù)雜模式和預(yù)測(cè)問題的算法。
首先了解大腦如何處理信息:
在大腦中,有數(shù)億個(gè)神經(jīng)元細(xì)胞人柿,以電信號(hào)的形式處理信息寡润。外部信息或者刺激被神經(jīng)元的樹突接收鹃彻,在神經(jīng)元細(xì)胞體中處理熙暴,轉(zhuǎn)化成輸出并通過軸突,傳遞到下一個(gè)神經(jīng)元秒咨。下一個(gè)神經(jīng)元可以選擇接受它或拒絕它卓缰,這取決于信號(hào)的強(qiáng)度计呈。
[圖片上傳失敗...(image-cc0d9d-1512012156403)]
現(xiàn)在,讓我們嘗試了解 ANN 如何工作:
這里征唬,$w_1$
捌显,$w_2$
,$w_3$
給出輸入信號(hào)的強(qiáng)度
從上面可以看出总寒,ANN 是一個(gè)非常簡(jiǎn)單的表示大腦神經(jīng)元如何工作的結(jié)構(gòu)扶歪。
為了使事情變得更清晰,用一個(gè)簡(jiǎn)單的例子來理解 ANN:一家銀行想評(píng)估是否批準(zhǔn)貸款申請(qǐng)給客戶摄闸,所以善镰,它想預(yù)測(cè)一個(gè)客戶是否有可能違約貸款。它有如下數(shù)據(jù):
所以年枕,必須預(yù)測(cè)列 X炫欺。更接近 1 的預(yù)測(cè)值表明客戶更可能違約。
基于如下例子的神經(jīng)元結(jié)構(gòu)熏兄,嘗試創(chuàng)建人造神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu):
通常竣稽,上述示例中的簡(jiǎn)單 ANN 結(jié)構(gòu)可以是:
[圖片上傳失敗...(image-1b4516-1512012156403)]
與結(jié)構(gòu)有關(guān)的要點(diǎn):
網(wǎng)絡(luò)架構(gòu)有一個(gè)輸入層,隱藏層(1 個(gè)以上)和輸出層霍弹。由于多層結(jié)構(gòu)毫别,它也被稱為 MLP(多層感知機(jī))。
隱藏層可以被看作是一個(gè)「提煉層」典格,它從輸入中提煉一些重要的模式岛宦,并將其傳遞到下一層。通過從省略冗余信息的輸入中識(shí)別重要的信息耍缴,使網(wǎng)絡(luò)更快速和高效砾肺。
激活函數(shù)有兩個(gè)明顯的目的:
- 它捕獲輸入之間的非線性關(guān)系
- 它有助于將輸入轉(zhuǎn)換為更有用的輸出。
在上面的例子中防嗡,所用的激活函數(shù)是 sigmoid:
$$O_1=1+e^{-F}$$
其中$F=W_1*X_1+W_2*X_2+W_3*X_3$
Sigmoid 激活函數(shù)創(chuàng)建一個(gè)在 0 和 1 之間的輸出变汪。還有其他激活函數(shù),如:Tanh蚁趁、softmax 和 RELU裙盾。
-
類似地,隱藏層導(dǎo)致輸出層的最終預(yù)測(cè):
$$O_3=1+e^{-F_1}$$
其中$F_1=W_7*H_1+W_8*H_2$
這里,輸出值($O_3$
)在 0 和 1 之間番官。接近 1(例如0.75)的值表示有較高的客戶違約跡象庐完。 權(quán)重 W 與輸入有重要關(guān)聯(lián)。如果
$w_1$
是 0.56徘熔,$w_2$
是 0.92门躯,那么在預(yù)測(cè)$H_1$
時(shí),$X_2$
:Debt Ratio 比$X_1$
:Age 更重要酷师。上述網(wǎng)絡(luò)架構(gòu)稱為「前饋網(wǎng)絡(luò)」讶凉,可以看到輸入信號(hào)只在一個(gè)方向傳遞(從輸入到輸出)∩娇祝可以創(chuàng)建在兩個(gè)方向上傳遞信號(hào)的「反饋網(wǎng)絡(luò)」缀遍。
一個(gè)高精度的模型給出了非常接近實(shí)際值的預(yù)測(cè)。因此饱须,在上表中域醇,列 X 值應(yīng)該非常接近于列 W 值。預(yù)測(cè)誤差是列 W 和列 X 之差:
獲得一個(gè)準(zhǔn)確預(yù)測(cè)的好模型的關(guān)鍵是找到預(yù)測(cè)誤差最小的「權(quán)重 W 的最優(yōu)值」蓉媳。這被稱為「反向傳播算法」譬挚,這使 ANN 成為一種學(xué)習(xí)算法,因?yàn)橥ㄟ^從錯(cuò)誤中學(xué)習(xí)酪呻,模型得到改進(jìn)减宣。
反向傳播的最常見方法稱為「梯度下降」,其中使用了迭代 W 不同的值玩荠,并對(duì)預(yù)測(cè)誤差進(jìn)行了評(píng)估漆腌。因此,為了得到最優(yōu)的 W 值阶冈,W 值在小范圍變化闷尿,并且評(píng)估預(yù)測(cè)誤差的影響。最后女坑,W 的這些值被選為最優(yōu)的填具,隨著W的進(jìn)一步變化,誤差不會(huì)進(jìn)一步降低匆骗。要更詳細(xì)地理解解梯度下降劳景,請(qǐng)參考:
http://www.kdnuggets.com/2017/04/simple-understand-gradient-descent-algorithm.html
神經(jīng)網(wǎng)絡(luò)的主要優(yōu)點(diǎn):
ANN 有一些關(guān)鍵優(yōu)勢(shì),使它們最適合某些問題和情況:
- ANN 有能力學(xué)習(xí)和構(gòu)建非線性的復(fù)雜關(guān)系的模型碉就,這非常重要盟广,因?yàn)樵诂F(xiàn)實(shí)生活中,許多輸入和輸出之間的關(guān)系是非線性的瓮钥、復(fù)雜的筋量。
- ANN 可以推廣烹吵,在從初始化輸入及其關(guān)系學(xué)習(xí)之后,它也可以推斷出從未知數(shù)據(jù)之間的未知關(guān)系毛甲,從而使得模型能夠推廣并且預(yù)測(cè)未知數(shù)據(jù)年叮。
- 與許多其他預(yù)測(cè)技術(shù)不同具被,ANN 不會(huì)對(duì)輸入變量施加任何限制(例如:如何分布)玻募。此外,許多研究表明一姿,ANN 可以更好地模擬異方差性七咧,即具有高波動(dòng)性和不穩(wěn)定方差的數(shù)據(jù),因?yàn)樗哂袑W(xué)習(xí)數(shù)據(jù)中隱藏關(guān)系的能力叮叹,而不在數(shù)據(jù)中強(qiáng)加任何固定關(guān)系艾栋。這在數(shù)據(jù)波動(dòng)非常大的金融時(shí)間序列預(yù)測(cè)(例如:股票價(jià)格)中非常有用。
應(yīng)用:
- 圖像處理和字符識(shí)別:ANN 具有接收許多輸入的能力蛉顽,可以處理它們來推斷隱蔽蝗砾、復(fù)雜的非線性關(guān)系,ANN在圖像和字符識(shí)別中起著重要的作用携冤。手寫字符識(shí)別在欺詐檢測(cè)(例如:銀行欺詐)甚至國(guó)家安全評(píng)估中有很多應(yīng)用悼粮。圖像識(shí)別是一個(gè)不斷發(fā)展的領(lǐng)域,廣泛應(yīng)用于社交媒體中的面部識(shí)別曾棕,醫(yī)學(xué)上的癌癥治療的停滯以及農(nóng)業(yè)和國(guó)防用途的衛(wèi)星圖像處理扣猫。目前,ANN 的研究為深層神經(jīng)網(wǎng)絡(luò)鋪平了道路翘地,是「深度學(xué)習(xí)」的基礎(chǔ)申尤,現(xiàn)已在計(jì)算機(jī)視覺、語(yǔ)音識(shí)別衙耕、自然語(yǔ)言處理等方向開創(chuàng)了一系列令人激動(dòng)的創(chuàng)新昧穿,比如,無(wú)人駕駛汽車橙喘。
- 預(yù)測(cè):在經(jīng)濟(jì)和貨幣政策粤咪、金融和股票市場(chǎng)、日常業(yè)務(wù)決策(如:銷售渴杆,產(chǎn)品之間的財(cái)務(wù)分配寥枝,產(chǎn)能利用率),廣義上都需要進(jìn)行預(yù)測(cè)磁奖。更常見的是囊拜,預(yù)測(cè)問題是復(fù)雜的,例如比搭,預(yù)測(cè)股價(jià)是一個(gè)復(fù)雜的問題冠跷,有許多潛在因素(一些已知的,一些未知的)。在考慮到這些復(fù)雜的非線性關(guān)系方面蜜托,傳統(tǒng)的預(yù)測(cè)模型出現(xiàn)了局限性抄囚。鑒于其能夠建模和提取未知的特征和關(guān)系,以正確的方式應(yīng)用的 ANN橄务,可以提供強(qiáng)大的替代方案幔托。此外,與這些傳統(tǒng)模型不同蜂挪,ANN 不對(duì)輸入和殘差分布施加任何限制重挑。更多的研究正在進(jìn)行中,例如棠涮,使用 LSTM 和 RNN 預(yù)測(cè)的研究進(jìn)展谬哀。
ANN 是具有廣泛應(yīng)用的強(qiáng)大的模型。以上列舉了幾個(gè)突出的例子严肪,但它們?cè)卺t(yī)藥史煎、安全、銀行驳糯、金融篇梭、政府、農(nóng)業(yè)和國(guó)防等領(lǐng)域有著廣泛的應(yīng)用结窘。
未完待續(xù):課程內(nèi)容較多很洋,請(qǐng)復(fù)制鏈接通過電腦學(xué)習(xí),獲得最佳學(xué)習(xí)效果隧枫。 http://datacademy.io/lesson/174
更多課程和文章盡在微信號(hào):「datartisan數(shù)據(jù)工匠」