——激活函數(shù)是為了增加整個(gè)網(wǎng)絡(luò)的非線性能力(如果只能表達(dá)線性映射甚脉,即使有再多的隱藏層滚澜,整個(gè)網(wǎng)絡(luò)和單層神經(jīng)網(wǎng)絡(luò)也是等價(jià)的)蓉媳,即表達(dá)能力和抽象能力,接在Batch-normalisation之后送浊,即輸入(-1,1)梦谜。激活函數(shù)應(yīng)保證可微性丘跌、單調(diào)性袭景。激活函數(shù)輸出值有限時(shí),基于梯度的優(yōu)化方法更加穩(wěn)定闭树,輸出無限的時(shí)候耸棒,模型的訓(xùn)練更加高效。
Sigmoid
tanh
Relu
Relu6
Leaky Rely
參數(shù)化Relu
隨機(jī)化Relu
ELU
深度學(xué)習(xí): 激活函數(shù) (Activation Functions) - Online Note - CSDN博客