返回主頁 本節(jié)討論四個(gè)內(nèi)容:1、線性回歸2合溺、多重共線性問題3昭躺、嶺回歸4、局部加權(quán)線性回歸 線性回歸(Linear Regression)是機(jī)器學(xué)...
返回主頁 EM (Expectation Maximization)算法是一種迭代算法,由 Dempster 等人于1977年提出漩氨。EM 算法最...
返回主頁 XGBoost(eXtreme Gradient Boosting)又稱極致梯度提升樹西壮,由陳天奇于2016年提出, = 決策樹 + B...
返回主頁 AdaBoost(Adaptive Boost)隸屬于 Boosting 方法族叫惊,廣泛用于分類任務(wù)款青,它通過改變訓(xùn)練集樣本的權(quán)重,學(xué)習(xí)多...
返回主頁 Logistic Regression 是統(tǒng)計(jì)學(xué)習(xí)的經(jīng)典分類算法霍狰,是一種 對(duì)數(shù)線性模型抡草。 1、數(shù)據(jù)集與特征空間 2蔗坯、假設(shè)空間Logis...
返回主頁 樸素貝葉斯算法(naive Bayes)是基于貝葉斯定理與特征條件獨(dú)立假設(shè)的分類算法康震,在機(jī)器學(xué)習(xí)眾多算法中,它實(shí)現(xiàn)簡單宾濒、效率高腿短,但代價(jià)...
返回主頁 k 最近鄰算法(k-nearest neighbor, k-NN)是一種基本的分類方法(二分類 / 多分類),由 Cover 和 Ha...
從事數(shù)據(jù)挖掘工作多年使我意識(shí)到绘梦,算法學(xué)習(xí)是一個(gè)沉淀的過程答姥,或者說是一場“從薄到厚再到薄”的修行的過程。拋開業(yè)務(wù)問題不談谚咬,就算法學(xué)習(xí)本身而言鹦付,如果...
返回主頁 4 核函數(shù)理解4.1 多項(xiàng)式核函數(shù)(Polynomial kernel function)及其推演 注:當(dāng) zeta = 0; gam...