Avatar notebook default
16篇文章 · 12162字 · 2人關注
  • tensorflow api

    不規(guī)則張量 RaggedTensor[https://www.tensorflow.org/api_docs/python/tf/RaggedT...

  • 廣義線性模型與邏輯回歸(為什么邏輯回歸要用Sigmoid函數(shù))

    廣義線性模型與邏輯回歸 廣義線性模型的原理 首先,廣義線性模型是基于指數(shù)分布族的一睁,而指數(shù)分布族的原型如下 其中 為自然參數(shù),它可能是一個向量,...

  • 數(shù)據(jù)預處理

    數(shù)據(jù)預處理 1. 去除唯一屬性 唯一屬性通常是一些id屬性,這些屬性并不能刻畫樣本自身的分布規(guī)律姜钳,所以簡單地刪除這些屬性即可。 2. 處理缺失值...

  • 參數(shù)估計方法

    參數(shù)估計 最小二乘法估計構造誤差平方和函數(shù)形耗,對其求偏導哥桥,讓誤差平方和函數(shù)取得最小值的參數(shù)就是模型參數(shù)。 極大似然估計(MLE)是似然函數(shù)激涤。 最大...

  • Kmeans

    Kmeans 先從樣本集中隨機選取 k 個樣本作為簇中心泰讽,并計算所有樣本與這 k 個“簇中心”的距離,對于每一個樣本昔期,將其劃分到與其距離最近的“...

  • 決策樹

    決策樹 1. 各種公式 信息熵 條件熵 信息增益 信息增益比 基尼指數(shù) 2. 決策樹的生成算法 ID3: 選擇信息增益最大的特征最為節(jié)點的特征 ...

  • AdaBoost

    AdaBoost 1. 前向分步加法 2. 損失函數(shù) 指數(shù)損失形式: 損失函數(shù) 3. 推導 計算在強分類器中所占的權重Loss 對 求導 得...

  • 各種集成方法比較

    各種集成方法比較 1. AdaBoost和RF AdaBoost改變了訓練數(shù)據(jù)的權值,即樣本的概率分布,減少上一輪被正確分類的樣本權值佛玄,提高被錯...

  • 機器學習中的優(yōu)化方法

    優(yōu)化方法 1. 梯度下降 1.1. 缺點及解決辦法 缺點:每一步走的距離在極值點附近非常重要硼一,如果走的步子過大,容易在極值點附近震蕩而無法收斂梦抢。...

文集作者

亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品