不規(guī)則張量 RaggedTensor[https://www.tensorflow.org/api_docs/python/tf/RaggedT...
廣義線性模型與邏輯回歸 廣義線性模型的原理 首先,廣義線性模型是基于指數(shù)分布族的一睁,而指數(shù)分布族的原型如下 其中 為自然參數(shù),它可能是一個向量,...
數(shù)據(jù)預處理 1. 去除唯一屬性 唯一屬性通常是一些id屬性,這些屬性并不能刻畫樣本自身的分布規(guī)律姜钳,所以簡單地刪除這些屬性即可。 2. 處理缺失值...
參數(shù)估計 最小二乘法估計構造誤差平方和函數(shù)形耗,對其求偏導哥桥,讓誤差平方和函數(shù)取得最小值的參數(shù)就是模型參數(shù)。 極大似然估計(MLE)是似然函數(shù)激涤。 最大...
Kmeans 先從樣本集中隨機選取 k 個樣本作為簇中心泰讽,并計算所有樣本與這 k 個“簇中心”的距離,對于每一個樣本昔期,將其劃分到與其距離最近的“...
決策樹 1. 各種公式 信息熵 條件熵 信息增益 信息增益比 基尼指數(shù) 2. 決策樹的生成算法 ID3: 選擇信息增益最大的特征最為節(jié)點的特征 ...
AdaBoost 1. 前向分步加法 2. 損失函數(shù) 指數(shù)損失形式: 損失函數(shù) 3. 推導 計算在強分類器中所占的權重Loss 對 求導 得...
各種集成方法比較 1. AdaBoost和RF AdaBoost改變了訓練數(shù)據(jù)的權值,即樣本的概率分布,減少上一輪被正確分類的樣本權值佛玄,提高被錯...
優(yōu)化方法 1. 梯度下降 1.1. 缺點及解決辦法 缺點:每一步走的距離在極值點附近非常重要硼一,如果走的步子過大,容易在極值點附近震蕩而無法收斂梦抢。...