制作軟件幕布檀夹,可生成清晰的思維度導圖
了解幕布
注冊連接:幕布是一款結構化思維生產(chǎn)力工具
如果大家喜歡的話麻煩從我的這個連接注冊熏挎,這樣我就可以使用高級會員功能了芭析,,攀甚,謝謝啦
建議直接看思維導圖箩朴,如果圖片不清晰可點擊查看原圖(屏幕中間下方)。
文章列表
圖解神經(jīng)網(wǎng)絡之--1.0 感知器(Perceptron)
圖解神經(jīng)網(wǎng)絡之--2.0 線性單元(Linear Regression)
線性單元以及梯度下降
下面是幕布標簽內(nèi)容
線性單元的概念:在面對一個數(shù)據(jù)集不是線性可分的時候秋度,使用感知器規(guī)則 可能無法進行收斂炸庞,無法訓練成一個感知器的問題時,我們用一個可倒的線性函數(shù)來替換感知器的跳躍函數(shù)荚斯,這樣的感知器就叫做線性單元埠居,線性單元在面對線性不可分的數(shù)據(jù)集時查牌,會收斂到一個最佳的近似值上。
圖示:
輸出:更改激活函數(shù)之后線性單元返回的是一個實數(shù)值而不是0滥壕,1分類纸颜,因此線性單元用來解決的是回歸問題而不是分類問題。
線性模型:當我們說模型時绎橘,我們實際上在談論根據(jù)輸入X 預測輸出Y的算法
輸出Y 就是輸入x1-x4的線性組合胁孙。
線性單元的目標函數(shù)和梯度下降優(yōu)化:目標函數(shù)預測值和標簽的近似程度 e是單個樣本的誤差。(一般用的是差的平方的二分之一称鳞,乘二分之一是為了之后求導好算)對于一個訓練數(shù)據(jù)集來說涮较,誤差越小就說明模型越好,由此可見冈止,模型的訓練狂票,實際上就是求取到合適的w。則需要使用下面的優(yōu)化算法優(yōu)化我們的目標函數(shù)(E(W))
批梯度下降(Batch Gradient Descent)優(yōu)化優(yōu)化的目的:通過梯度下降對得到的目標函數(shù) (E(W))進行優(yōu)化找到最合適的w
梯度概念:梯度是一個向量屋剑,它指向函數(shù)值上升最快的方向。
方法:我們通過梯度的反方向去修改x的值诗眨,在找到極值點唉匾。
推倒過程推倒目的:
隨機梯度下降算法(Stochastic Gradient Descent, SGD)概念:如果樣本數(shù)目非常大芋簿,那么采用批梯度下降計算量將會異常巨大峡懈,在SGD中,每次w的迭代只計算一個樣本与斤,這樣更新效率就會大大提高