1. 背景:
以人腦中的神經(jīng)網(wǎng)絡(luò)為啟發(fā)欢揖,歷史上出現(xiàn)過很多不同版本
最著名的算法是1980年的 backpropagation
2. 多層向前神經(jīng)網(wǎng)絡(luò)(Multilayer Feed-Forward Neural Network)
Backpropagation被使用在多層向前神經(jīng)網(wǎng)絡(luò)上
-
多層向前神經(jīng)網(wǎng)絡(luò)由以下部分組成:
輸入層(input layer), 隱藏層 (hidden layers), 輸入層 (output layers)
- 每層由單元(units)組成
- 輸入層(input layer)是由訓(xùn)練集的實(shí)例特征向量傳入
- 經(jīng)過連接結(jié)點(diǎn)的權(quán)重(weight)傳入下一層癌刽,一層的輸出是下一層的輸入
- 隱藏層的個數(shù)可以是任意的,輸入層有一層毡庆,輸出層有一層
- 每個單元(unit)也可以被稱作神經(jīng)結(jié)點(diǎn),根據(jù)生物學(xué)來源定義
- 以上稱為2層的神經(jīng)網(wǎng)絡(luò)(輸入層不算)
- 一層中加權(quán)的求和么抗,然后根據(jù)非線性方程轉(zhuǎn)化輸出
-
作為多層向前神經(jīng)網(wǎng)絡(luò),理論上蝇刀,如果有足夠多的隱藏層(hidden layers) 和足夠大的訓(xùn)練集, 可以模擬出任何方程。
3. 設(shè)計神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
使用神經(jīng)網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù)之前吞琐,必須確定神經(jīng)網(wǎng)絡(luò)的層數(shù)捆探,以及每層單元的個數(shù)
特征向量在被傳入輸入層時通常被先標(biāo)準(zhǔn)化(normalize)到0和1之間 (為了加速學(xué)習(xí)過程)
離散型變量可以被編碼成每一個輸入單元對應(yīng)一個特征值可能賦的值
比如:特征值A(chǔ)可能取三個值(a0, a1, a2), 可以使用3個輸入單元來代表A。
如果A=a0, 那么代表a0的單元值就取1, 其他取0站粟;
如果A=a1, 那么代表a1de單元值就取1徐许,其他取0,以此類推卒蘸。
- 神經(jīng)網(wǎng)絡(luò)即可以用來做分類(classification)問題,也可以解決回歸(regression)問題
對于分類問題翻默,如果是2類缸沃,可以用一個輸出單元表示(0和1分別代表2類),如果多余2類修械,每一個類別用一個輸出單元表示趾牧,所以輸入層的單元數(shù)量通常等于類別的數(shù)量
-
沒有明確的規(guī)則來設(shè)計最好有多少個隱藏層,根據(jù)實(shí)驗測試和誤差肯污,以及準(zhǔn)確度來實(shí)驗并改進(jìn)翘单。
4. 交叉驗證方法(Cross-Validation)
把數(shù)據(jù)分成多份吨枉,每次取其中一份進(jìn)行測試,其余的進(jìn)行訓(xùn)練哄芜,然后求平均準(zhǔn)確值
5. Backpropagation算法(BP算法貌亭,反向傳播算法)
通過迭代性的來處理訓(xùn)練集中的實(shí)例
對比經(jīng)過神經(jīng)網(wǎng)絡(luò)后輸入層預(yù)測值(predicted value)與真實(shí)值(target value)之間的誤差
反方向(從輸出層=>隱藏層=>輸入層)來以最小化誤差(error)來更新每個連接的權(quán)重(weight)
算法詳細(xì)介紹
輸入:D:數(shù)據(jù)集,l 學(xué)習(xí)率(learning rate)认臊, 一個多層前向神經(jīng)網(wǎng)絡(luò)
輸入:一個訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)(a trained neural network)
初始化權(quán)重(weights)和偏向(bias): 隨機(jī)初始化在-1到1之間圃庭,或者-0.5到0.5之間,每個單元有一個偏向
對于每一個訓(xùn)練實(shí)例X失晴,執(zhí)行以下步驟:
-
根據(jù)誤差(error)反向傳送
對于輸出層:
對于隱藏層:
權(quán)重更新:
偏向更新:
終止條件
權(quán)重的更新低于某個閾值
預(yù)測的錯誤率低于某個閾值
達(dá)到預(yù)設(shè)一定的循環(huán)次數(shù)
6. Backpropagation 算法舉例
根據(jù)誤差反向傳播公式: