Neural Networks
01.Model Representation1
- 用一個(gè)神經(jīng)網(wǎng)絡(luò)(Dendrite 樹突精拟,axon軸突)來表示一個(gè)假設(shè)函數(shù)。
樹突是輸入擅腰,表示輸入特性x1毕匀、x2.。年缎。神經(jīng)元表示計(jì)算單元悔捶,軸突表示假設(shè)函數(shù)的輸出結(jié)果。
- 表示形式:
左邊是輸入層单芜,中間是隱藏層蜕该,假設(shè)函數(shù)是輸出層,并且將隱藏層的a02??an2?成為激活單元(activation units)洲鸠。
其中堂淡,
-
其中計(jì)算公式如下:
激活節(jié)點(diǎn)由3*4的參數(shù)矩陣計(jì)算所得扒腕,每一行的參數(shù)和一次輸入結(jié)合以獲得一個(gè)激活結(jié)點(diǎn)的值绢淀。假設(shè)函數(shù)又由另一個(gè)參數(shù)矩陣與激活結(jié)點(diǎn)相乘而得到。兩層之間都有一個(gè)參數(shù)權(quán)重矩陣 Θ(j)瘾腰。
- 權(quán)重矩陣的定義:
假設(shè)輸入層有3(Sj)個(gè)單元皆的,隱藏層有3(S(j+1))個(gè)單元,則權(quán)重矩陣為S(j+1)*(Sj+1)維蹋盆。其中多出來的一維來自费薄,x0和theta0,被稱為偏見結(jié)點(diǎn)(bias nodes.)
02.Model Representation II
- 用向量化的形式表示:
Application
01.and
-
用一個(gè)簡(jiǎn)單的例子來表示邏輯&&,比如讓參數(shù)矩陣取值這樣:
輸出函數(shù)如下:
02.應(yīng)用
-
把上述與或非結(jié)合到一起怪嫌,在第一層和第二層之間采用與非
在第二層和第三層之前采用或
最后結(jié)合起來最終效果:
03.多類別分類(Multi-class classification)
-
為了將我們的分類數(shù)據(jù)識(shí)別成多種不同的分類义锥,我們使我們的假設(shè)函數(shù)返回一個(gè)值向量的形式。比如要使識(shí)別結(jié)果是以下四種表示結(jié)果岩灭。
結(jié)果集的表示形式: