BP神經(jīng)網(wǎng)絡判定笑傲江湖人物門派

滄海一聲笑

滔滔兩岸潮

浮沉隨浪只記今朝

蒼天笑

紛紛世上潮

誰負誰勝出天知曉

江山笑

煙雨遙

濤浪淘盡紅塵俗事知多少

啦......

朋友圈的熱點紛紛擾擾戚哎,轉眼間滿屏都是向Andrew Ng(吳恩達)同志學習裸诽,占領機器學習陣地的帖子。翻看一下Coursera的課程目錄型凳,默默從積灰的書堆底下翻出十多年前的《人工神經(jīng)網(wǎng)絡》教材丈冬,過上一把懷舊癮。

金庸大俠筆下《笑傲江湖》一書中甘畅,既有正邪之判埂蕊,復存門戶之別往弓,少林、武當蓄氧、青城函似、五岳自詡正教與魔教(日月神教)誓不兩立,出場人物的權謀武功高下各有不同喉童。加之華山派氣宗劍宗分野撇寞,嵩山派耗時數(shù)年搜集整理各派劍法遺存,葵花寶典化身辟邪劍法重現(xiàn)江湖……無疑加深了識別人物門派的難度堂氯,本文嘗試BP神經(jīng)網(wǎng)絡算法(誤差反向傳播蔑担,Error Back Propagation)予以求解。

訓練數(shù)據(jù)


bp1.JPG

輸出結果

構造一個BP神經(jīng)網(wǎng)絡咽白,根據(jù)人物的權謀啤握、內功、劍法晶框、輕功特征判斷是否出自華山派恨统。

l 神經(jīng)元模型

?神經(jīng)網(wǎng)絡中最基本的成分是神經(jīng)元模型。取一組二進制輸入值(附近的神經(jīng)元)三妈,將每個輸入值乘以一個連續(xù)值權重(每個附近神經(jīng)元的突觸強度)苫纤,并設立一個閾值万栅,如果這些加權輸入值的和超過這個閾值材泄,就輸出1染簇,否則輸出0(同理于神經(jīng)元是否放電)。


bp2.jpg

l BP算法的基本思想

通過計算輸出結果和期望輸出的誤差來間接調整隱含層的權值,學習過程由信號的正向傳播與誤差的反向傳播兩個過程組成模燥。

  • 正向傳播時,輸入樣本從輸入層傳入,經(jīng)各隱含層逐層處理后,傳向輸出層咖祭。若輸出層的實際輸出與期望的輸出不符,則轉入誤差的反向傳播階段。

  • 反向傳播時蔫骂,將輸出以某種形式通過隱含層向輸入層逐層反傳,并將誤差分攤給各層的所有單元,作為修正各單元權值的依據(jù)么翰。


    bp3.png

Python代碼解析

l 正向傳播(1~5步)

  1. 設定輸入數(shù)組X 和輸出數(shù)組Y

  2. 初始化連接權值和閾值

wh 隱含層權值
bh 隱含層閾值
wout 輸出層權值
bout 輸出層閾值

  1. 計算輸入數(shù)組與隱含層權值的點積,加上閾值(線性變換)
hidden_layer_input= matrix_dot_product(X,wh) + bh
  1. 采用Sigmoid激活函數(shù)進行非線性變換f(x)=1/(1 + exp(-x)).
hiddenlayer_activations = sigmoid(hidden_layer_input)
  1. 對隱含層激活函數(shù)的結果進行線性變換辽旋,求出與輸出層權值的點積浩嫌,再加上輸出層閾值。通過Sigmoid函數(shù)預測輸出值补胚。
output_layer_input = matrix_dot_product (hiddenlayer_activations * wout ) + bout

output = sigmoid(output_layer_input)

l 反向傳播(6~12步)

  1. 將預測結果與實際結果進行比較码耐,其中誤差損失函數(shù)表示為 ((Y-t)^2)/2
E = y – output
  1. 計算隱含層與輸出層神經(jīng)元的梯度
slope_output_layer = derivatives_sigmoid(output)

slope_hidden_layer = derivatives_sigmoid(hiddenlayer_activations)
  1. 將誤差乘以輸出層的梯度,得出輸出層的調整因子
d_output = E * slope_output_layer
  1. 將誤差反向傳播到隱含層溶其,計算輸出層調整因子與隱含層至輸出層連接權值的點積骚腥。
Error_at_hidden_layer = matrix_dot_product(d_output, wout.Transpose)
  1. 繼續(xù)計算隱含層的調整因子,求出隱含層誤差與隱含層梯度的點積瓶逃。
d_hiddenlayer = Error_at_hidden_layer * slope_hidden_layer
  1. 借助前幾步得出的調整因子束铭,更新隱含層與輸出層連接的權值
wout = wout + matrix_dot_product(hiddenlayer_activations.Transpose, d_output)*learning_rate

wh = wh + matrix_dot_product(X.Transpose,d_hiddenlayer)*learning_rate
  1. 最后更新隱含層和輸出層的閾值
bias at output_layer =bias at output_layer + sum of delta of output_layer at row-wise * learning_rate

bias at hidden_layer =bias at hidden_layer + sum of delta of output_layer at row-wise * learning_rate  

bh = bh + sum(d_hiddenlayer, axis=0) * learning_rate

bout = bout + sum(d_output, axis=0)*learning_rate

Python源代碼

# -*- coding: utf-8 -*-

"""

Created on Sun Feb 11 22:42:30 2018

@author: vincentqiao

"""

import numpy as np

#Input array

X=np.array([[1,1,1,1],[1,1,1,0],[0,1,1,0],[1,0,1,1]])

#Output

y=np.array([[0],[1],[1],[0]])

#Sigmoid Function

def sigmoid (x):

 return 1/(1 + np.exp(-x))

#Derivative of Sigmoid Function

def derivatives_sigmoid(x):

 return x * (1 - x)

#Variable initialization

epoch=5000 #Setting training iterations

lr=0.1 #Setting learning rate

inputlayer_neurons = X.shape[1] #number of features in data set

hiddenlayer_neurons = 3 #number of hidden layers neurons

output_neurons = 1 #number of neurons at output layer

#weight and bias initialization

wh=np.random.uniform(size=(inputlayer_neurons,hiddenlayer_neurons))

bh=np.random.uniform(size=(1,hiddenlayer_neurons))

wout=np.random.uniform(size=(hiddenlayer_neurons,output_neurons))

bout=np.random.uniform(size=(1,output_neurons))

for i in range(epoch):

 #Forward Propogation

 hidden_layer_input1=np.dot(X,wh)

 hidden_layer_input=hidden_layer_input1 + bh

 hiddenlayer_activations = sigmoid(hidden_layer_input)

 output_layer_input1=np.dot(hiddenlayer_activations,wout)

 output_layer_input= output_layer_input1+ bout

 output = sigmoid(output_layer_input)

 #Backpropagation

 E = y-output

 slope_output_layer = derivatives_sigmoid(output)

 slope_hidden_layer = derivatives_sigmoid(hiddenlayer_activations)

 d_output = E * slope_output_layer

 Error_at_hidden_layer = d_output.dot(wout.T)

 d_hiddenlayer = Error_at_hidden_layer * slope_hidden_layer

 wout += hiddenlayer_activations.T.dot(d_output) *lr

 bout += np.sum(d_output, axis=0,keepdims=True) *lr

 wh += X.T.dot(d_hiddenlayer) *lr

 bh += np.sum(d_hiddenlayer, axis=0,keepdims=True) *lr

print (output)

輸出結果

[[ 0.03964938]

 [ 0.96135949]

 [ 0.98159661]

 [ 0.01767599]]
?著作權歸作者所有,轉載或內容合作請聯(lián)系作者
  • 序言:七十年代末廓块,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子契沫,更是在濱河造成了極大的恐慌剿骨,老刑警劉巖,帶你破解...
    沈念sama閱讀 216,496評論 6 501
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件埠褪,死亡現(xiàn)場離奇詭異,居然都是意外死亡挤庇,警方通過查閱死者的電腦和手機钞速,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,407評論 3 392
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來嫡秕,“玉大人渴语,你說我怎么就攤上這事±パ剩” “怎么了驾凶?”我有些...
    開封第一講書人閱讀 162,632評論 0 353
  • 文/不壞的土叔 我叫張陵,是天一觀的道長掷酗。 經(jīng)常有香客問我调违,道長,這世上最難降的妖魔是什么泻轰? 我笑而不...
    開封第一講書人閱讀 58,180評論 1 292
  • 正文 為了忘掉前任技肩,我火速辦了婚禮,結果婚禮上浮声,老公的妹妹穿的比我還像新娘虚婿。我一直安慰自己,他們只是感情好泳挥,可當我...
    茶點故事閱讀 67,198評論 6 388
  • 文/花漫 我一把揭開白布然痊。 她就那樣靜靜地躺著,像睡著了一般屉符。 火紅的嫁衣襯著肌膚如雪剧浸。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,165評論 1 299
  • 那天矗钟,我揣著相機與錄音辛蚊,去河邊找鬼。 笑死真仲,一個胖子當著我的面吹牛袋马,可吹牛的內容都是我干的。 我是一名探鬼主播秸应,決...
    沈念sama閱讀 40,052評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼虑凛,長吁一口氣:“原來是場噩夢啊……” “哼碑宴!你這毒婦竟也來了?” 一聲冷哼從身側響起桑谍,我...
    開封第一講書人閱讀 38,910評論 0 274
  • 序言:老撾萬榮一對情侶失蹤延柠,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后锣披,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體贞间,經(jīng)...
    沈念sama閱讀 45,324評論 1 310
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 37,542評論 2 332
  • 正文 我和宋清朗相戀三年雹仿,在試婚紗的時候發(fā)現(xiàn)自己被綠了增热。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 39,711評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡胧辽,死狀恐怖峻仇,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情邑商,我是刑警寧澤摄咆,帶...
    沈念sama閱讀 35,424評論 5 343
  • 正文 年R本政府宣布,位于F島的核電站人断,受9級特大地震影響吭从,放射性物質發(fā)生泄漏。R本人自食惡果不足惜恶迈,卻給世界環(huán)境...
    茶點故事閱讀 41,017評論 3 326
  • 文/蒙蒙 一影锈、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧蝉绷,春花似錦鸭廷、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,668評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至桅狠,卻和暖如春讼载,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背中跌。 一陣腳步聲響...
    開封第一講書人閱讀 32,823評論 1 269
  • 我被黑心中介騙來泰國打工咨堤, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人漩符。 一個月前我還...
    沈念sama閱讀 47,722評論 2 368
  • 正文 我出身青樓一喘,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子凸克,可洞房花燭夜當晚...
    茶點故事閱讀 44,611評論 2 353

推薦閱讀更多精彩內容