激活函數(shù)與損失函數(shù)

激活函數(shù)

1驴剔、作用:

線(xiàn)性模型的表達(dá)能力不夠丧失,激活函數(shù)增加神經(jīng)網(wǎng)絡(luò)模型的非線(xiàn)性惜互,提升神經(jīng)網(wǎng)絡(luò)模型表達(dá)能力(數(shù)據(jù)往往線(xiàn)性不可分 )载佳。

2、幾種激活函數(shù)

(1)sigmoid函數(shù):
sigmoid函數(shù)(Logistic 函數(shù))挠乳,隱層神經(jīng)元輸出姑躲,取值范圍(0,1)黍析,可以將一個(gè)實(shí)數(shù)映射到(0,1)的區(qū)間,可以做二分類(lèi)马靠。


缺點(diǎn):

1甩鳄、Sigmoids saturate and kill gradients:梯度消失额划,無(wú)法深層網(wǎng)絡(luò)訓(xùn)練俊戳。當(dāng)輸入非常大或者非常小時(shí)(saturation)馆匿,神經(jīng)元梯度接近于0渐北。需要注意參數(shù)初始值避免saturation情況突倍。初始值很大盆昙,大部分神經(jīng)元可能都處在saturation狀態(tài)而把gradient kill淡喜,導(dǎo)致網(wǎng)絡(luò)很難學(xué)習(xí)。
2澎嚣、Sigmoid 的 output 不是0均值:導(dǎo)致后一層神經(jīng)元得到上層輸出的非0均值信號(hào)作為輸入瘟芝。 結(jié)果:如數(shù)據(jù)進(jìn)入神經(jīng)元時(shí)是正的(e.g.x>0 elementwise in f=wTx+b)锌俱,w 計(jì)算出梯度也始終都是正的。 如按batch訓(xùn)練造寝,batch可能得到不同的信號(hào)诫龙,問(wèn)題可以緩解鲫咽。
3、激活函數(shù)指數(shù)運(yùn)算锦聊,計(jì)算量大括丁,反向傳播求誤差梯度時(shí)伶选,求導(dǎo)涉及除法。


(2)tanh函數(shù):
雙曲正切函數(shù)抽诉,與sigmod函數(shù)曲線(xiàn)相近迹淌。兩個(gè)函數(shù)輸入很大或是很小時(shí)己单,輸出幾乎平滑,梯度很小纹份,不利于權(quán)重更新蔓涧;不同的是輸出區(qū)間笋额,tanh的輸出區(qū)間是在(-1,1)之間兄猩,函數(shù)以0為中心。比sigmoid 好援岩。
一般二分類(lèi)問(wèn)題中掏导,隱藏層用tanh函數(shù)趟咆,輸出層用sigmod函數(shù)。

(2)ReLU函數(shù):
ReLU(Rectified Linear Unit):


優(yōu)點(diǎn):

1、輸入為正數(shù)搀愧,不存在梯度飽和問(wèn)題。
2搓幌、計(jì)算速度快迅箩。ReLU函數(shù)只有線(xiàn)性關(guān)系饲趋,前向傳播和反向傳播,都比sigmod和tanh快堂污。(sigmod和tanh計(jì)算指數(shù))敷鸦。
3寝贡、Relu使一部分神經(jīng)元輸出0圃泡,網(wǎng)絡(luò)稀疏愿险,減少參數(shù)相互依存辆亏,緩解過(guò)擬合發(fā)生。

缺點(diǎn):

1缤弦、 輸入是負(fù)數(shù)彻磁,ReLU完全不被激活衷蜓,ReLU會(huì)死掉。反向傳播中斋陪,輸入負(fù)數(shù)无虚,梯度0,和sigmod函數(shù)橡淑、tanh函數(shù)有一樣的問(wèn)題咆爽。learning rate 很大斗埂,可能網(wǎng)絡(luò)中40%的神經(jīng)元都”dead”了。較小的learning rate男娄,問(wèn)題不會(huì)太頻繁模闲。
2崭捍、ReLU函數(shù)的輸出是0或正數(shù)殷蛇,ReLU函數(shù)也不是以0為中心的函數(shù)。

(3)softmax函數(shù):
多分類(lèi)神經(jīng)網(wǎng)絡(luò)輸出:


指數(shù):模擬 max 行為亮航,讓大的更大缴淋。需要一個(gè)可導(dǎo)的函數(shù)宴猾。

(4)Leaky ReLU函數(shù)(PReLU):



a是一個(gè)很小的常數(shù)仇哆,取0~1夫植。α=0.01時(shí),PReLU為L(zhǎng)eaky ReLU陌兑。修正數(shù)據(jù)分布由捎,保留負(fù)軸的值狞玛,使負(fù)軸信息不全部丟失。
PReLU是ReLU的改進(jìn)型锭亏,負(fù)數(shù)區(qū)域慧瘤,PReLU有很小的斜率固该,避免ReLU死掉問(wèn)題蹬音。相比于ELU,PReLU在負(fù)數(shù)區(qū)域內(nèi)是線(xiàn)性運(yùn)算,斜率雖然小永部,但不會(huì)趨于0呐矾。

(4)ELU函數(shù):



ELU函數(shù)是ReLU函數(shù)的改進(jìn)型组橄,相比于ReLU函數(shù)罚随,在輸入為負(fù)數(shù)時(shí)淘菩,有的輸出屠升,輸出有一定抗干擾能力腹暖。消除ReLU死掉的問(wèn)題翰萨,還是有梯度飽和和指數(shù)運(yùn)算的問(wèn)題亩鬼。

(4)MaxOut函數(shù):
Maxout是深度學(xué)習(xí)網(wǎng)絡(luò)中一層網(wǎng)絡(luò),同池化層丛肮、卷積層宝与,可以把maxout 看成網(wǎng)絡(luò)的激活函數(shù)層冶匹,假設(shè)網(wǎng)絡(luò)某一層的輸入特征向量為:X=(x1,x2,……xd)嚼隘,輸入是d個(gè)神經(jīng)元。Maxout隱藏層每個(gè)神經(jīng)元的計(jì)算公式如下:


maxout隱藏層神經(jīng)元i的計(jì)算公式。其中卧檐,k是maxout層所需要的參數(shù)霉囚,由人為設(shè)定大小盈罐。如dropout,有參數(shù)p(每個(gè)神經(jīng)元dropout概率)钓葫,maxout的參數(shù)是k瓤逼。公式中Z的計(jì)算公式為:

權(quán)重w是一個(gè)大小為(d,m,k)三維矩陣,b是一個(gè)大小為(m,k)的二維矩陣贷帮,這兩個(gè)是需要學(xué)習(xí)的參數(shù)撵枢。如果k=1精居,網(wǎng)絡(luò)就類(lèi)似普通的MLP網(wǎng)絡(luò)靴姿。
傳統(tǒng)的MLP算法在第i層到第i+1層佛吓,參數(shù)只有一組,現(xiàn)在在這一層同時(shí)訓(xùn)練n組的w淤刃、b參數(shù)逸贾,選擇激活值Z最大的作為下一層神經(jīng)元的激活值津滞,這個(gè)max(z)函數(shù)即激活函數(shù)触徐。
Maxout擬合能力非常強(qiáng)锌介,可以擬合任意凸函數(shù)猾警。只需2個(gè)maxout節(jié)點(diǎn)就可以擬合任意的凸函數(shù)(相減)发皿,前提是”隱隱含層”節(jié)點(diǎn)的個(gè)數(shù)可以任意多。
Maxout 具有 ReLU 的優(yōu)點(diǎn)(如:計(jì)算簡(jiǎn)單惶室,不會(huì) saturation)皇钞,同時(shí)沒(méi)有 ReLU 缺點(diǎn) (如:容易 go die)。缺點(diǎn):參數(shù)double馆里。

損失函數(shù):

實(shí)驗(yàn)1:第一次輸出值為0.82

實(shí)驗(yàn)2:第一次輸出值為0.98

二次代價(jià)函數(shù):


其中,C表示代價(jià)营密,x表示樣本评汰,y表示實(shí)際值侣集,a表示輸出值,n表示樣本的總數(shù)世分。
一個(gè)樣本為例:



梯度下降算法:



z表示神經(jīng)元的輸入编振。w和b的梯度跟激活函數(shù)的梯度成正比,激活函數(shù)梯度越大臭埋,w和b的大小調(diào)整越快踪央,訓(xùn)練收斂就越快。神經(jīng)網(wǎng)絡(luò)常用的激活函數(shù)為sigmoid函數(shù)瓢阴,曲線(xiàn)如下:

實(shí)驗(yàn)2初始輸出值(0.98)對(duì)應(yīng)的梯度小于實(shí)驗(yàn)1的輸出值(0.82)畅蹂,實(shí)驗(yàn)2的參數(shù)梯度下降得比實(shí)驗(yàn)1慢。因此初始代價(jià)(誤差)越大液斜,導(dǎo)致訓(xùn)練越慢(不合理)。

交叉熵代價(jià)函數(shù):

不改變激活函數(shù)叠穆,二次代價(jià)函數(shù)改為交叉熵代價(jià)函數(shù):



x表示樣本少漆,n表示樣本的總數(shù)。計(jì)算參數(shù)w的梯度:




誤差越大硼被,梯度就越大示损,參數(shù)w調(diào)整得越快,訓(xùn)練速度也越快嚷硫。

b的梯度:


?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末检访,一起剝皮案震驚了整個(gè)濱河市始鱼,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌脆贵,老刑警劉巖医清,帶你破解...
    沈念sama閱讀 211,194評(píng)論 6 490
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異丹禀,居然都是意外死亡状勤,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,058評(píng)論 2 385
  • 文/潘曉璐 我一進(jìn)店門(mén)双泪,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)持搜,“玉大人,你說(shuō)我怎么就攤上這事焙矛『危” “怎么了?”我有些...
    開(kāi)封第一講書(shū)人閱讀 156,780評(píng)論 0 346
  • 文/不壞的土叔 我叫張陵村斟,是天一觀的道長(zhǎng)贫导。 經(jīng)常有香客問(wèn)我,道長(zhǎng)蟆盹,這世上最難降的妖魔是什么孩灯? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 56,388評(píng)論 1 283
  • 正文 為了忘掉前任,我火速辦了婚禮逾滥,結(jié)果婚禮上峰档,老公的妹妹穿的比我還像新娘。我一直安慰自己寨昙,他們只是感情好讥巡,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,430評(píng)論 5 384
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著舔哪,像睡著了一般欢顷。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上捉蚤,一...
    開(kāi)封第一講書(shū)人閱讀 49,764評(píng)論 1 290
  • 那天抬驴,我揣著相機(jī)與錄音,去河邊找鬼缆巧。 笑死怎爵,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的盅蝗。 我是一名探鬼主播,決...
    沈念sama閱讀 38,907評(píng)論 3 406
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼姆蘸,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼墩莫!你這毒婦竟也來(lái)了芙委?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書(shū)人閱讀 37,679評(píng)論 0 266
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤狂秦,失蹤者是張志新(化名)和其女友劉穎灌侣,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體裂问,經(jīng)...
    沈念sama閱讀 44,122評(píng)論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡侧啼,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,459評(píng)論 2 325
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了堪簿。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片痊乾。...
    茶點(diǎn)故事閱讀 38,605評(píng)論 1 340
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖椭更,靈堂內(nèi)的尸體忽然破棺而出哪审,到底是詐尸還是另有隱情,我是刑警寧澤虑瀑,帶...
    沈念sama閱讀 34,270評(píng)論 4 329
  • 正文 年R本政府宣布湿滓,位于F島的核電站,受9級(jí)特大地震影響舌狗,放射性物質(zhì)發(fā)生泄漏叽奥。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,867評(píng)論 3 312
  • 文/蒙蒙 一痛侍、第九天 我趴在偏房一處隱蔽的房頂上張望朝氓。 院中可真熱鬧,春花似錦恋日、人聲如沸膀篮。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 30,734評(píng)論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)誓竿。三九已至,卻和暖如春谈截,著一層夾襖步出監(jiān)牢的瞬間筷屡,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 31,961評(píng)論 1 265
  • 我被黑心中介騙來(lái)泰國(guó)打工簸喂, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留毙死,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 46,297評(píng)論 2 360
  • 正文 我出身青樓喻鳄,卻偏偏與公主長(zhǎng)得像扼倘,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,472評(píng)論 2 348

推薦閱讀更多精彩內(nèi)容