深度學(xué)習(xí)(七):激活函數(shù)

1 激活函數(shù)限制

激活函數(shù)是在預(yù)測(cè)時(shí)應(yīng)用于一層神經(jīng)元的函數(shù)霞捡。激活函數(shù)有以下的限制:
約束1:函數(shù)必須連續(xù)且定義域是無(wú)窮的

約束2:好的激活函數(shù)是單調(diào)的融柬,不會(huì)改變方向

神經(jīng)網(wǎng)絡(luò)進(jìn)行學(xué)習(xí)時(shí),實(shí)際上是在尋找合適的權(quán)重配置來(lái)給出特定的輸出举哟。如果有多個(gè)正確答案時(shí)亦鳞,這個(gè)問(wèn)題會(huì)變得困難得多馍忽。

約束3:好的激活函數(shù)是非線性的(扭曲或反轉(zhuǎn))

約束4:合適的激活函數(shù)(及其導(dǎo)數(shù))應(yīng)該可以高效計(jì)算

2 標(biāo)準(zhǔn)隱藏層激活函數(shù)

1、基礎(chǔ)激活函數(shù) sigmoid 能平滑地將輸入從無(wú)窮大的空間壓縮到 0 到 1 之間燕差。這可以讓你把單個(gè)神經(jīng)元的輸出解釋為一個(gè)概率遭笋。人們通常在隱藏層和輸出層之中使用這種非線性函數(shù)。sigmoid 函數(shù)能給出不同程度的正相關(guān)
2谁不、tanh 函數(shù)能完成 sigmoid 一樣的工作坐梯,只是它的取值在 -1 和 1 之間,這意味著刹帕,它可以引入一部分負(fù)相關(guān)吵血,負(fù)相關(guān)對(duì)于隱藏層來(lái)說(shuō)作用很大


3 標(biāo)準(zhǔn)輸出層激活函數(shù)

類(lèi)型1:預(yù)測(cè)原始數(shù)據(jù)值(沒(méi)有激活函數(shù))
給定周?chē)髦莸臍鉁鼗烟妫A(yù)測(cè)科羅拉多州的平均氣溫。輸出結(jié)果不在 0 到 1 之間蹋辅,可以不選擇激活函數(shù)

類(lèi)型2:預(yù)測(cè)不相關(guān)的“是”或“否”的概率(sigmoid)
根據(jù)輸入數(shù)據(jù)預(yù)測(cè)團(tuán)隊(duì)是否會(huì)贏钱贯,是否會(huì)受傷,以及團(tuán)隊(duì)士氣是否高漲侦另,適合使用 sigmoid激活函數(shù)秩命,它能對(duì)每個(gè)輸出節(jié)點(diǎn)分別建模

類(lèi)型3:預(yù)測(cè)“哪一個(gè)”的概率(softmax)
如 MNIST 數(shù)字分類(lèi)器,預(yù)測(cè)圖像中是哪個(gè)數(shù)字褒傅,需要一個(gè)激活函數(shù)對(duì) “當(dāng)出現(xiàn)一個(gè)標(biāo)簽的可能性越大時(shí)弃锐,出現(xiàn)另一個(gè)標(biāo)簽的可能性就越小”這一概念進(jìn)行建模。sofmax 函數(shù)比較合適

softmax計(jì)算每個(gè)輸入值的指數(shù)形式殿托,除以該層的和霹菊,常用于分類(lèi)問(wèn)題。softmax 的好處是支竹,神經(jīng)網(wǎng)絡(luò)對(duì)于一個(gè)值的預(yù)測(cè)越高旋廷,它對(duì)所有其他值的預(yù)測(cè)就越低。它增加了信號(hào)衰減的銳度礼搁,鼓勵(lì)網(wǎng)絡(luò)以非常高的概率預(yù)測(cè)某項(xiàng)輸出


使用tanh函數(shù)帶圖relu函數(shù)饶碘,看效果:

import sys,numpy as np
np.random.seed(1)

from keras.datasets import mnist

(x_train,y_train),(x_test,y_test) = mnist.load_data()
#維度分別為(60000,28,28),((60000,)
x_train.shape,y_train.shape 

#維度分別為(1000,28*28),((1000,)
#功能:降維,進(jìn)行標(biāo)準(zhǔn)化
images,labels = (x_train[0:1000].reshape(1000,28*28)/255,y_train[0:1000])

#維度是(1000,10)
one_hot_labels = np.zeros((len(labels),10))

#這個(gè)是結(jié)果的維度(1000,10),在0-9的的對(duì)應(yīng)位置上標(biāo)記為1馒吴,其余位置標(biāo)記為0
for i,l in enumerate(labels):
    one_hot_labels[i][l] = 1

labels = one_hot_labels

test_images = x_test.reshape(len(x_test),28*28)/255
test_labels = np.zeros((len(y_test),10))

for i,l in enumerate(y_test):
    test_labels[i][l] = 1

#relu = lambda x:(x>0) * x
#relu2deriv = lambda x:x>0
def tanh(x):
    return np.tanh(x)

def tanh2deriv(output):
    return 1-(output**2)

#沿著第一維進(jìn)行求和扎运,保留數(shù)組的維度
def softmax(x):
    temp = np.exp(x)
    return temp/np.sum(temp,axis=1,keepdims=True)




#三層神經(jīng)網(wǎng)絡(luò) layer0 為 784,layer1 隱藏層為 40饮戳,layer2 結(jié)果層為10
alpha,interations,hidden_size,pixels_per_image,num_labels = (0.02,300,188,784,10)

#初始化權(quán)重
weight_0_1 = 0.02*np.random.random((pixels_per_image,hidden_size)) - 0.01
weight_1_2 = 0.2*np.random.random((hidden_size,num_labels)) - 0.1

batch_size = 100

for j in range(interations):
    error,correct_cnt = (0.0,0)
    for i in range(int(len(images)/batch_size)):
        batch_start,batch_end = ((i*batch_size),((i+1)*batch_size))
        #維度(100绪囱,784)
        layer_0 = images[batch_start:batch_end]
        layer_1 = tanh(np.dot(layer_0,weight_0_1))
        dropout_mask = np.random.randint(2,size=layer_1.shape)
        layer_1 *= dropout_mask * 2
        layer_2 = np.dot(layer_1,weight_1_2)

        error += np.sum((labels[batch_start:batch_end] - layer_2)**2)
        for k in range(batch_size):
            correct_cnt += int(np.argmax(layer_2[k:k+1]) == np.argmax(labels[batch_start+k:batch_start+k+1]))
            #取平均權(quán)重
            layer_2_delta = (labels[batch_start:batch_end] - layer_2)/batch_size
            layer_1_delta = layer_2_delta.dot(weight_1_2.T)*tanh2deriv(layer_1)
            
            layer_1_delta *= dropout_mask

            weight_1_2 += alpha * layer_1.T.dot(layer_2_delta)
            weight_0_1 += alpha * layer_0.T.dot(layer_1_delta)

test_correct_cnt = 0
for i in range(len(test_images)):
    layer_0 = test_images[i:i+1]
    layer_1 = tanh(np.dot(layer_0,weight_0_1))
    layer_2 = np.dot(layer_1,weight_1_2)
    test_correct_cnt += int(np.argmax(layer_2) == np.argmax(test_labels[i:i+1]))

if (j%10 == 0):
    sys.stdout.write("\n" + "I:" + str(j) + " Test-Acc:" +str(test_correct_cnt/float(len(test_images))) + \
                    " Train-Acc:" +str(correct_cnt/float(len(images))))


4 參考資料

《深度學(xué)習(xí)圖解》

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市莹捡,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌扣甲,老刑警劉巖篮赢,帶你破解...
    沈念sama閱讀 206,839評(píng)論 6 482
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異琉挖,居然都是意外死亡启泣,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,543評(píng)論 2 382
  • 文/潘曉璐 我一進(jìn)店門(mén)示辈,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)寥茫,“玉大人,你說(shuō)我怎么就攤上這事矾麻∩闯埽” “怎么了芭梯?”我有些...
    開(kāi)封第一講書(shū)人閱讀 153,116評(píng)論 0 344
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)弄喘。 經(jīng)常有香客問(wèn)我玖喘,道長(zhǎng),這世上最難降的妖魔是什么蘑志? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 55,371評(píng)論 1 279
  • 正文 為了忘掉前任累奈,我火速辦了婚禮,結(jié)果婚禮上急但,老公的妹妹穿的比我還像新娘澎媒。我一直安慰自己,他們只是感情好波桩,可當(dāng)我...
    茶點(diǎn)故事閱讀 64,384評(píng)論 5 374
  • 文/花漫 我一把揭開(kāi)白布戒努。 她就那樣靜靜地躺著,像睡著了一般突委。 火紅的嫁衣襯著肌膚如雪柏卤。 梳的紋絲不亂的頭發(fā)上,一...
    開(kāi)封第一講書(shū)人閱讀 49,111評(píng)論 1 285
  • 那天匀油,我揣著相機(jī)與錄音缘缚,去河邊找鬼。 笑死敌蚜,一個(gè)胖子當(dāng)著我的面吹牛桥滨,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播弛车,決...
    沈念sama閱讀 38,416評(píng)論 3 400
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼齐媒,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了纷跛?” 一聲冷哼從身側(cè)響起喻括,我...
    開(kāi)封第一講書(shū)人閱讀 37,053評(píng)論 0 259
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎贫奠,沒(méi)想到半個(gè)月后唬血,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 43,558評(píng)論 1 300
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡唤崭,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,007評(píng)論 2 325
  • 正文 我和宋清朗相戀三年拷恨,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片谢肾。...
    茶點(diǎn)故事閱讀 38,117評(píng)論 1 334
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡腕侄,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情冕杠,我是刑警寧澤微姊,帶...
    沈念sama閱讀 33,756評(píng)論 4 324
  • 正文 年R本政府宣布,位于F島的核電站拌汇,受9級(jí)特大地震影響柒桑,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜噪舀,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,324評(píng)論 3 307
  • 文/蒙蒙 一魁淳、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧与倡,春花似錦界逛、人聲如沸。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 30,315評(píng)論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至净响,卻和暖如春少欺,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背馋贤。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 31,539評(píng)論 1 262
  • 我被黑心中介騙來(lái)泰國(guó)打工赞别, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人配乓。 一個(gè)月前我還...
    沈念sama閱讀 45,578評(píng)論 2 355
  • 正文 我出身青樓仿滔,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親犹芹。 傳聞我的和親對(duì)象是個(gè)殘疾皇子崎页,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 42,877評(píng)論 2 345

推薦閱讀更多精彩內(nèi)容