240 發(fā)簡(jiǎn)信
IP屬地:天津
  • SVM

    看到一個(gè)介紹SVM的blog姚糊,寫的真的太好了蜘渣,記錄一下: 「14」支持向量機(jī)——我話說完,誰支持澜驮?誰反對(duì)?_Machine Learning w...

  • 貝葉斯公式

    2021/5/14 今天晚上回顧貝葉斯公式惋鸥,看了b站上的視頻 BV19V411o7Pu杂穷,感覺有了更新的認(rèn)識(shí),越發(fā)感覺這是一個(gè)十分深刻的公式卦绣,同時(shí)...

  • 先驗(yàn)概率耐量、后驗(yàn)概率與似然估計(jì)

    轉(zhuǎn)載自:先驗(yàn)分布、后驗(yàn)分布滤港、似然估計(jì)這幾個(gè)概念是什么意思廊蜒,它們之間的關(guān)系是什么? - 知乎[https://www.zhihu.com/ques...

  • 全概率公式與貝葉斯公式

    條件概率 條件概率公式: 全概率公式 上圖中溅漾,紅色部分是事件A山叮,綠色部分是事件A',它們共同構(gòu)成了樣本空間S添履。 在這種情況下屁倔,事件B可以劃分成兩...

  • Resize,w 360,h 240
    批標(biāo)準(zhǔn)化(batch normalization)

    今天學(xué)習(xí)李宏毅老師的機(jī)器學(xué)習(xí)課程的batch normalization部分,有點(diǎn)囫圇吞棗暮胧,寫個(gè)blog記錄一下吧锐借。 參考自:深度學(xué)習(xí)—BN的理...

  • Resize,w 360,h 240
    標(biāo)準(zhǔn)化/歸一化

    一、標(biāo)準(zhǔn)化/歸一化 定義 歸一化和標(biāo)準(zhǔn)化經(jīng)常被搞混往衷,程度還比較嚴(yán)重钞翔,非常干擾大家的理解。為了方便后續(xù)的討論炼绘,必須先明確二者的定義嗅战。 歸一化 就是...

  • 幾種常用最優(yōu)化方法

    學(xué)習(xí)和工作中遇到的大多問題都可以建模成一種最優(yōu)化模型進(jìn)行求解,比如我們現(xiàn)在學(xué)習(xí)的機(jī)器學(xué)習(xí)算法俺亮,大部分的機(jī)器學(xué)習(xí)算法的本質(zhì)都是建立優(yōu)化模型驮捍,通過最...

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品