softmax:
tanh:
ReLu
Softplus(x)=log(1+ex)
sigmoid:
maxout?
對于CNN來說诉探,并不是所有上下層神經(jīng)元都能直接相連,而是*通過“卷積核”作為中介
輸出值和真實值差距比較大携冤,對誤差進行反向傳播,更新權(quán)值闲勺,重新計算輸出
softmax:
tanh:
ReLu
Softplus(x)=log(1+ex)
sigmoid:
maxout?
對于CNN來說诉探,并不是所有上下層神經(jīng)元都能直接相連,而是*通過“卷積核”作為中介
輸出值和真實值差距比較大携冤,對誤差進行反向傳播,更新權(quán)值闲勺,重新計算輸出