神經(jīng)網(wǎng)絡(luò)(Neural Networks)系統(tǒng)是由神經(jīng)元組成的網(wǎng)絡(luò)系統(tǒng)。多層神經(jīng)網(wǎng)路(MLP(Multi-Layer Perceptron)) 是一種神經(jīng)網(wǎng)絡(luò),也稱為深度神經(jīng)網(wǎng)絡(luò)(DNN - Deep Neural Networks)
感應(yīng)機
感知機算法PLA( Perceptron Learning Algorithm ) 可以通過一個神經(jīng)元結(jié)構(gòu)來描述的話,可以是一個多輸入的神經(jīng)元結(jié)構(gòu)炫狱。
感知機結(jié)構(gòu)
如圖所示态鳖,它包含n個輸入篙议,w表示權(quán)重在孝,b表示偏置值。f 可以看做傳輸函數(shù)淮摔。
LaTeX編輯數(shù)學(xué)公式基本語法元素
多層感知機(MLP)
多層感知機
多層感知機結(jié)構(gòu)如圖所示私沮,它是由一個輸入層多個隱藏層組成,每個層含有多個神經(jīng)元結(jié)構(gòu)和橙。同層之間的神經(jīng)元無連接仔燕,不同層的神經(jīng)元之間存在全連接的關(guān)系。
多層感知機
符號表示:表示輸入魔招,
表示第i個隱藏層的輸入晰搀,
是第i-1層的輸出。
表示第 i-1 到第 i 層之間的權(quán)重办斑。
多層感知機的算法表示
多層感知機的學(xué)習(xí)
- 數(shù)據(jù)
輸入樣本的損失函數(shù)
平均損失
學(xué)習(xí)目標(biāo):調(diào)整神經(jīng)元連接的權(quán)重值外恕,使得平均誤差最小