????????????????????????為什么我們需要在神經(jīng)網(wǎng)絡(luò)中使用非線性激活函數(shù)
如果使用線性激活函數(shù),那么無論神經(jīng)網(wǎng)絡(luò)中有多少層直奋,都只是在做線性運算能庆,最后一層得到的結(jié)果是輸入層的線性組合,而輸入層的線性組合脚线,用一層隱藏層就可以表示搁胆,也就是說,多層的隱藏層運算后的結(jié)果等同于一層的結(jié)果邮绿,那么這么多隱藏層就沒有意義了渠旁,還不如去掉。因此船逮,隱藏層的激活函數(shù)必須是要非線性的一死。
????????????????????????邏輯回歸Logistic Loss是什么,解決分類問題 or 回歸問題
logistic回歸是一種廣義線性回歸(generalized linear model)傻唾,因此與多重線性回歸分析有很多相同之處。它們的模型形式基本上相同承耿,都具有 w‘x+b冠骄,其中w和b是待求參數(shù),其區(qū)別在于他們的因變量不同加袋,多重線性回歸直接將w‘x+b作為因變量凛辣,即y =w‘x+b,而logistic回歸則通過函數(shù)L將w‘x+b對應(yīng)一個隱狀態(tài)p职烧,p =L(w‘x+b),然后根據(jù)p 與1-p的大小決定因變量的值。如果L是logistic函數(shù)蝗敢,就是logistic回歸,如果L是多項式函數(shù)就是多項式回歸讶泰。