240 發(fā)簡信
IP屬地:北京
  • Resize,w 360,h 240
    反向傳播

    反向傳播(英語:Backpropagation,縮寫為BP)是“誤差反向傳播”的簡稱,是一種與最優(yōu)化方法(如梯度下降法)結(jié)合使用的,用來訓練人工...

  • Bagging-隨機森林

    Bagging流派的機器學習, 其學習器之間沒有沒有依賴關(guān)系, 這意味著可以并行計算, Bagging的弱學習器之間沒有boosting那樣的聯(lián)...

  • Boost-GBDT

    GBDT也是集成學習Boosting家族的成員,但是卻和傳統(tǒng)的Adaboost有很大的不同萍聊。回顧下Adaboost,我們是利用前一輪迭代弱學習器...

  • Boost-Adaboost

    我們知道boost系列是強依賴關(guān)系, 有這個依賴, 各個學習器之間還有這些問題沒有解決: 如何計算學習的誤差率 如何得到弱學習器的權(quán)重 如何更新...

  • Resize,w 360,h 240
    總覽

    集成學習(ensemble learning)本身不是一個單獨的機器學習算法按灶,而是通過構(gòu)建并結(jié)合多個機器學習器來完成學習任務(wù)。也就是我們常說的“...

  • 總結(jié)

    決策樹算法的有點 簡單, 直觀, 可解釋性強, 建樹容易 不需要預(yù)處理, 歸一化, 以及處理缺失值 離散值, 連續(xù)值, 及其混合都可以處理 能夠...

  • 分治法

    分治算法的基本思想是將一個規(guī)模為N的問題分解為K個規(guī)模較小的子問題筐咧,這些子問題相互獨立且與原問題性質(zhì)相同鸯旁。求出子問題的解,就可得到原問題的解量蕊。即...

  • Resize,w 360,h 240
    CART

    在ID3算法中我們使用了信息增益來選擇特征铺罢,信息增益大的優(yōu)先選擇。在C4.5算法中残炮,采用了信息增益比來選擇特征韭赘,以減少信息增益容易選擇特征值多的...

  • C4.5

    ID3算法存在的不足, 在C4.5里面有了改進 不能處理連續(xù)特征的問題C4.5的思路是將連續(xù)特征離散化. 比如m個樣本, 特征A有m個連續(xù)的值,...

個人介紹
學計算機的心理學愛好者
我的github:https://github.com/HCMY
亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品