為了方便復習面經(jīng),根據(jù)筆者的復習進度,持續(xù)更新匯總一些覺得比較有價值的文章鏈接挺邀。希望能夠一起學習~ ※代表被問過
機器學習
-
kmeans原理伤塌、k值選擇灯萍、初始點選擇 ※
(1)初始點選擇- 選擇批次距離盡可能遠的K個點
首先隨機選擇一個點作為第一個初始類簇中心點,然后選擇距離該點最遠的那個點作為第二個初始類簇中心點每聪,然后再選擇距離前兩個點的最近距離最大的點作為第三個初始類簇的中心點旦棉,以此類推,直至選出K個初始類簇中心點药薯。 - 選用層次聚類或者Canopy算法進行初始聚類绑洛,然后利用這些類簇的中心點作為KMeans算法初始類簇中心點
(2)K值選擇
- 按實際情況選擇、手肘法果善、間隔統(tǒng)計量诊笤、輪廓系數(shù)、canopy法
https://www.biaodianfu.com/k-means-choose-k.html
- 選擇批次距離盡可能遠的K個點
kmeans 與 DBSCAN 區(qū)別
https://www.cnblogs.com/hugechuanqi/p/10509307.html
(3) kmeans 是假設數(shù)據(jù)服從什么分布巾陕?※
數(shù)據(jù)類別不平衡處理 ※
https://zhuanlan.zhihu.com/p/32940093優(yōu)化方法 SGD讨跟,Momentum,AdaGrad鄙煤,RMSProp晾匠,Adam ※
https://blog.csdn.net/u010089444/article/details/76725843L1不可導的時候該怎么辦 ※
近端梯度法、坐標下降法PCA數(shù)學原理(強烈推薦)
http://blog.codinglabs.org/articles/pca-tutorial.html召回率和查全率等指標
https://zhuanlan.zhihu.com/p/56109450SVM相關問題 ※
https://blog.csdn.net/szlcw1/article/details/52259668
https://blog.csdn.net/cppjava_/article/details/68060439L1和L2區(qū)別 ※
https://blog.csdn.net/jinping_shi/article/details/52433975常見的機器學習模型
https://www.nowcoder.com/ta/review-ml/review?query=&asc=true&order=&page=66Loss Function 有哪些梯刚?如何用凉馆?
https://www.nowcoder.com/questionTerminal/508661036afd4df298e3887cbb14c68d為什么LR模型損失函數(shù)使用交叉熵不用均方差?
https://blog.csdn.net/dpengwang/article/details/96597606-
集成學習 ※
bagging 與boosting 區(qū)別
https://zhuanlan.zhihu.com/p/31618506Adaboost 與 GDBT 與 XGB 區(qū)別聯(lián)系
https://zhuanlan.zhihu.com/p/42740654樹模型理解(非常全)
ID3亡资、C4.5澜共、CART
https://zhuanlan.zhihu.com/p/85731206
Random Forest、Adaboost锥腻、GBDT
https://zhuanlan.zhihu.com/p/86263786
XGBoost嗦董、LightGBM
https://zhuanlan.zhihu.com/p/87885678
深度學習
- tensorflow、keras原理與區(qū)別
- dropout原理 ※
https://zhuanlan.zhihu.com/p/38200980 - 人臉識別指標FAR與FRR定義(可和前面的召回率瘦黑、查全率相對比)
https://blog.csdn.net/zc199329/article/details/83857695 - resnet結(jié)構(gòu)理解 ※
https://zhuanlan.zhihu.com/p/54289848 - CNN的原理京革?(筆者面阿里淘系算法崗一面的問題之一)※
http://www.reibang.com/p/27e508c18146
添加一個關于VGG的理解文章鏈接,里面關于卷積核的大小的選擇也是面試點之一(騰訊ieg提前批一面)
http://www.reibang.com/p/68ac04943f9e