1.Coding方面
劍指offer和leetcode(重點(diǎn))
常見算法題總結(jié)
- 最長不重復(fù)子序列
- DP(01背包問題) edit sitance 問題
- 全排序(如果有重復(fù)數(shù)字呢)
- 最短路徑算法
- 圖論問題剖效,最小割問題
- 二分法的擴(kuò)展版本
- 快排硅则,冒泡排序等相關(guān)排序算法
- 一個數(shù)組中有一個數(shù)字出現(xiàn)兩次,找出來
- 判斷一棵樹是不是對稱的
- 一維紅黑樹與平衡樹的區(qū)別
- 二維四叉樹祟峦、網(wǎng)格 優(yōu)缺點(diǎn)
- 單鏈表相關(guān)插入矢否、刪除
- 無序大數(shù)組中找中位數(shù) (快排)
- 鏈表逆序
- 隨機(jī)數(shù)1-5同蜻,怎么生成隨機(jī)數(shù)1-7
- 怎么判斷鏈表是否有環(huán)
- 有序數(shù)組的交集陋葡,并集(搜索領(lǐng)域經(jīng)常用)
- 數(shù)組中第一個大于等于K的數(shù)
- 判斷麻將胡沒胡(正則的狀態(tài)機(jī)實(shí)現(xiàn)方式)
- 完全二叉樹的下一個節(jié)點(diǎn)
- 有N個人桃笙,其中有一個明星,所有人都認(rèn)識明星档插,明星不認(rèn)識所有人慢蜓,只有一種查詢方式:A是否認(rèn)識B,給出找到明星的最優(yōu)策略
- 一個圖郭膛,起點(diǎn)是A晨抡,終點(diǎn)是B,可以選擇圖中一條邊置為0,如何使A到B的最短路徑最短(順便謝謝Dijkstra)
- 給出二叉樹的先序和中序遍歷则剃,構(gòu)建二叉樹耘柱。
- 鏈表排序
- 矩陣相乘的最優(yōu)順序
- 二分圖最大匹配,最小費(fèi)用最大流
- 把一堆數(shù)分成兩堆棍现,使和最相近(背包搞一搞)
- 數(shù)據(jù)流找中位數(shù)(大小堆搞一搞)
- 二叉樹中權(quán)重最大的鏈调煎,每個點(diǎn)的權(quán)重有正有負(fù)。
- 加上最少的括號己肮,使括號匹配士袄。
- 給定一個數(shù)組,求最大的連續(xù)子序列和
- 有兩個很大的文件谎僻,均無法放入內(nèi)存娄柳,其中存放著很多整數(shù),如何找到兩個文件中的相同整數(shù)
- 有一個坐標(biāo)軸艘绍,上面有很多點(diǎn)赤拒,每個點(diǎn)有坐標(biāo),求長度為L的繩子最多能夠覆蓋幾個點(diǎn)
- 用棧實(shí)現(xiàn)隊(duì)列
- 轉(zhuǎn)制&字符串中最長的數(shù)字字符串
- 畫建最小堆的過程
- 先序遍歷二叉樹,非遞歸
- 手寫數(shù)組旋轉(zhuǎn)挎挖,要求不使用額外空間
- 手寫算法这敬,在旋轉(zhuǎn)數(shù)組里尋找某個給定的元素,要求時間復(fù)雜度O(n)以下
- 一個堆蕉朵,怎么按順序改為一個雙向鏈表
- 一個無序數(shù)組鹅颊,用時間復(fù)雜度最低的來尋找某兩個數(shù)加起來等于一個固定的值m
- 兩個有序數(shù)組求中位數(shù)(leetcode)
- 判斷平衡二叉樹(劍指offer)
- 最長上升子序列(lintcode)
- 二叉樹轉(zhuǎn)雙向鏈表(劍指offer)
- LRU cache實(shí)現(xiàn)(leetcode)
- House Robber(leetcode)
- 判斷平衡二叉樹
- 最長公共子序列
2. 項(xiàng)目論文
自己的幾篇論文和相關(guān)的論文已經(jīng)領(lǐng)域內(nèi)很火的文章要非常熟悉
3. 面試問題總結(jié)
- LR,SVM墓造,KNN堪伍,GBDT,XGB推導(dǎo)觅闽,算法細(xì)節(jié)(LR為何是sigmod帝雇,理論推導(dǎo)出sigmod,KNN距離度量方式,XGBoost為什么要用二階信息不用一階蛉拙,LR和SVM對比尸闸,GBDT和XGB和LightGBM對比)。(我把gbdt從集成方法的區(qū)別到adaboost vs gbdt再到sk-learn的gbdt vs XGBoost vs. LightGBM都給他擼了一遍孕锄,從原始論文的區(qū)別到具體實(shí)現(xiàn)的區(qū)別吮廉,所以這里可能算是面試的一個關(guān)鍵點(diǎn)吧)
- xgboost里面的lambdarank的損失函數(shù)是什么?
- xgboost在什么地方做的剪枝畸肆,怎么做的?
- xgboost如何分布式调卑?特征分布式和數(shù)據(jù)分布式? 各有什么存在的問題恬涧?
- lightgbm和xgboost有什么區(qū)別?他們的loss一樣么溯捆? 算法層面有什么區(qū)別?
- lightgbm有哪些實(shí)現(xiàn)提揍,各有什么區(qū)別旷痕?
- 邏輯回歸的目標(biāo)函數(shù)和優(yōu)化方法
目標(biāo)函數(shù)是服從二項(xiàng)分布的似然函數(shù)顽冶,優(yōu)化常用的是梯度下降法
CNN DNN RNN 細(xì)節(jié)以及相關(guān)問題(poll層,激活函數(shù)强重,梯度消失彌散問題贸人,LSTM結(jié)構(gòu)圖,深度網(wǎng)絡(luò)優(yōu)勢及缺點(diǎn))艺智。除了CNN還熟悉其他深度學(xué)習(xí)模型嗎
為什么deep learning 能抑制梯度消失或者爆炸的問題?
幾個方面:一是激活函數(shù)不光是只用sigmoid函數(shù)圾亏,還有 ReLU函數(shù) 二是在參數(shù)并不是初始化的時候并不是隨機(jī)選擇的十拣,而是在前面有自編碼器做了特征特征器,這樣避免了梯度下降法求解陷入局部最優(yōu)解志鹃;三,深度學(xué)習(xí)一些手段,權(quán)值共享缝彬,卷積核财忽,pooling等都能抑制梯度消失問題;四陕见,二次代價函數(shù)換成交叉熵?fù)p失函數(shù)或者選用softmax+對數(shù)似然代價函數(shù)的組合秘血。DNN的初始化方法有哪些? 為什么要做初始化评甜? kaiming初始化方法的過程是怎樣的灰粮?
DL常用的激活函數(shù)有哪些? relu和sigmoid有什么區(qū)別忍坷,優(yōu)點(diǎn)有哪些谋竖?
什么是梯度消失,標(biāo)準(zhǔn)的定義是什么承匣?
樹模型建模過程蓖乘。
特征選擇方法,特征提取方法韧骗,如何判斷特征是否重要嘉抒。
模型訓(xùn)練停止方法。
正則化作用袍暴。
模型效果評價指標(biāo)
AUC 理解和計算方法些侍。
L_BFGS, DFP 推導(dǎo)。
對機(jī)器學(xué)習(xí)的理解
弱分類器組合成強(qiáng)分類器的理論證明政模。
FM,FMM,Rank_SVM算法細(xì)節(jié)岗宣。
map_reduce 基本概念以及常見代碼處理淋样。
過擬合的標(biāo)志有哪些,過擬合的解決方法。
各個損失函數(shù)之間的區(qū)別彪见。
L1,L2正則化相關(guān)問題余指。(L1,L2范數(shù)的區(qū)別酵镜,如何求解)一般求L1的優(yōu)化方法(坐標(biāo)下降柴钻,LARS角回歸)
SGD顿颅、batch粱腻、mini-batch的區(qū)別
無約束的優(yōu)化方法绍些,區(qū)別
PCA、LDA的區(qū)別
決策樹的特征選擇 優(yōu)缺點(diǎn) 啸澡,ID3,C4.5,CART 建樹嗅虏、剪枝優(yōu)缺點(diǎn)皮服,三種決策樹是如何處理缺失值的(三個階段:劃分節(jié)點(diǎn)時-訓(xùn)練模型時-預(yù)測時)参咙,樹的融合(GBDT, RF蕴侧,XGboost)净宵,為什么比賽中xgboost 表現(xiàn)比rf要好,從數(shù)據(jù)的角度分析
在選擇分裂屬性的時候归斤,訓(xùn)練樣本存在缺失值脏里,如何處理迫横?假如你使用ID3算法矾踱,那么選擇分類屬性時呛讲,就要計算所有屬性的熵增(信息增益贝搁,Gain)雷逆。假設(shè)10個樣本膀哲,屬性是a,b,c被碗。在計算a屬性熵時發(fā)現(xiàn)锐朴,第10個樣本的a屬性缺失包颁,那么就把第10個樣本去掉,前9個樣本組成新的樣本集蘑险,在新樣本集上按正常方法計算a屬性的熵增佃迄。然后結(jié)果乘0.9(新樣本占raw樣本的比例),就是a屬性最終的熵堆缘。
分類屬性選擇完成吼肥,對訓(xùn)練樣本分類缀皱,發(fā)現(xiàn)屬性缺失怎么辦啤斗?比如該節(jié)點(diǎn)是根據(jù)a屬性劃分赁咙,但是待分類樣本a屬性缺失彼水,怎么辦呢?假設(shè)a屬性離散握童,有1,2兩種取值澡绩,那么就把該樣本分配到兩個子節(jié)點(diǎn)中去肥卡,但是權(quán)重由1變?yōu)橄鄳?yīng)離散值個數(shù)占樣本的比例步鉴。然后計算錯誤率的時候氛琢,注意随闪,不是每個樣本都是權(quán)重為1铐伴,存在分?jǐn)?shù)。
訓(xùn)練完成泽疆,給測試集樣本分類玲献,有缺失值怎么辦青自?這時候延窜,就不能按比例分配了抹锄,因?yàn)槟惚仨毥o該樣本一個確定的label伙单,而不是薛定諤的label吻育。這時候根據(jù)投票來確定,或者填充缺失值摊趾。
XGBoost里處理缺失值的方法
在xgboost里砾层,在每個結(jié)點(diǎn)上都會將對應(yīng)變量是缺失值的數(shù)據(jù)往左右分支各導(dǎo)流一次肛炮,然后計算兩種導(dǎo)流方案對Objective的影響侨糟,最后認(rèn)為對Objective降低更明顯的方向(左或者右)就是缺失數(shù)據(jù)應(yīng)該流向的方向粟害,在預(yù)測時在這個結(jié)點(diǎn)上將同樣變量有缺失值的數(shù)據(jù)都導(dǎo)向訓(xùn)練出來的方向悲幅。
例如,某個結(jié)點(diǎn)上的判斷條件是 A>0 卓鹿,有些數(shù)據(jù)是A0吟孙,有些數(shù)據(jù)的A是缺失值聚蝶。那么算法首先忽略帶缺失值的數(shù)據(jù)碘勉,像正常情況下一樣:
將前兩種數(shù)據(jù)分別計算并導(dǎo)流到左子樹與右子樹验靡,
然后將帶缺失值的數(shù)據(jù)導(dǎo)向左子樹胜嗓,計算出這時候模型的Objective_L辞州;
接著將帶缺失值的數(shù)據(jù)導(dǎo)向右子樹变过,計算出這時候模型的Objective_R牵啦;
最后比較Objective_L和Objective_R哈雏。
假設(shè)Objective_L更小裳瘪,那么在預(yù)測時所有變量A是缺失值的數(shù)據(jù)在這個結(jié)點(diǎn)上都會被導(dǎo)向左邊彭羹,當(dāng)作A<=0處理派殷。
隨機(jī)森林處理缺失值的方法
RandomForest包里有兩種補(bǔ)全缺失值的方法:
方法一(na.roughfix)簡單粗暴,對于訓(xùn)練集,同一個class下的數(shù)據(jù)斯撮,如果是分類變量缺失勿锅,用眾數(shù)補(bǔ)上溢十,如果是連續(xù)型變量缺失张弛,用中位數(shù)補(bǔ)乌庶。
方法二(rfImpute)這個方法計算量大契耿,至于比方法一好壞搪桂?不好判斷盯滚。先用na.roughfix補(bǔ)上缺失值魄藕,然后構(gòu)建森林并計算proximity matrix话瞧,再回頭看缺失值交排,如果是分類變量埃篓,則用沒有缺失的觀測實(shí)例的proximity中的權(quán)重進(jìn)行投票根资。如果是連續(xù)型變量架专,則用proximity矩陣進(jìn)行加權(quán)平均的方法補(bǔ)缺失值同窘。然后迭代4-6次,這個補(bǔ)缺失值的思想和KNN有些類似部脚。
補(bǔ)充【proximity matrix】:Proximity 用來衡量兩個樣本之間的相似性塞椎。原理就是如果兩個樣本落在樹的同一個葉子節(jié)點(diǎn)的次數(shù)越多,則這兩個樣本的相似度越高睛低。當(dāng)一棵樹生成后案狠,讓數(shù)據(jù)集通過這棵樹,落在同一個葉子節(jié)點(diǎn)的”樣本對(xi,敏感詞roximity 值 P(i,j)加 1骂铁。所有的樹生成之后钞支,利用樹的數(shù)量來歸一化proximity matrix。
樣本類別不平衡會帶來怎樣的影響
講一下auc 以及你們比賽中最后模型的auc得分
隨機(jī)森林里使用的決策樹是哪一種? sklearn里實(shí)現(xiàn)的是CART的一種變體
優(yōu)化方面 Adam之類
長尾數(shù)據(jù)如何處理
GBDT在什么情況下比邏輯回歸算法要差
GBDT對輸入數(shù)據(jù)有什么要求,如果效果比較差,可能是什么原因造成的
比較一下邏輯回歸和GBDT
sigmoid 函數(shù)可以優(yōu)化梯度消失的問題嗎?數(shù)學(xué)問題,自己推導(dǎo)公式看下
sigmoid 函數(shù)求導(dǎo)
BP神經(jīng)網(wǎng)絡(luò)推導(dǎo)一遍
神經(jīng)網(wǎng)絡(luò)非線性原因分析
SVM核函數(shù)理解厦画,線性回歸如何利用核函數(shù)畸裳,有什么弊端颇象,假設(shè)分離超平面系數(shù)非常大怎么辦
SVM和LR的優(yōu)缺點(diǎn)蕴茴,應(yīng)用場景
比較常用的聚類算法,你如何理解在什么場景使用他們
機(jī)器學(xué)習(xí)非線性模型以及線性模型解決非線性問題
比較隨機(jī)森林和GBDT能扒,選擇一個重點(diǎn)說說见秤,Rf 調(diào)參是怎么做的突硝,這里指出樹的棵樹,層數(shù)可以通過樣本數(shù),特征數(shù)預(yù)估欺嗤,而不是拍腦袋決定
如果隨機(jī)森林的樹的個數(shù)無窮大淤袜,你覺得會過擬合嗎烦周,隨機(jī)森林的隨機(jī)性夭委,RF原理慌烧,優(yōu)化目標(biāo)是什么
講下隨機(jī)森林或者GDBT
隨機(jī)森林采用的是bagging的思想腐巢,bagging又稱為bootstrap aggreagation胃惜,通過在訓(xùn)練樣本集中進(jìn)行有放回的采樣得到多個采樣集,基于每個采樣集訓(xùn)練出一個基學(xué)習(xí)器硼讽,再將基學(xué)習(xí)器結(jié)合赚爵。隨機(jī)森林在對決策樹進(jìn)行bagging的基礎(chǔ)上麻掸,在決策樹的訓(xùn)練過程中引入了隨機(jī)屬性選擇。傳統(tǒng)決策樹在選擇劃分屬性的時候是在當(dāng)前節(jié)點(diǎn)屬性集合中選擇最優(yōu)屬性畏妖,而隨機(jī)森林則是對結(jié)點(diǎn)先隨機(jī)選擇包含k個屬性的子集疯攒,再選擇最優(yōu)屬性蜻直,k作為一個參數(shù)控制了隨機(jī)性的引入程度餐曼。-
隨機(jī)森林和GDBT的區(qū)別
GBDT和隨機(jī)森林的相同點(diǎn):1、都是由多棵樹組成
2、最終的結(jié)果都是由多棵樹一起決定
GBDT和隨機(jī)森林的不同點(diǎn):
1中捆、組成隨機(jī)森林的樹可以是分類樹津函,也可以是回歸樹允坚;而GBDT只由回歸樹組成
2、組成隨機(jī)森林的樹可以并行生成挤土;而GBDT只能是串行生成
3懦尝、對于最終的輸出結(jié)果而言谨朝,隨機(jī)森林采用多數(shù)投票等甥绿;而GBDT則是將所有結(jié)果累加起來,或者加權(quán)累加起來
4共缕、隨機(jī)森林對異常值不敏感洗出,GBDT對異常值非常敏感
5图谷、隨機(jī)森林對訓(xùn)練集一視同仁阱洪,GBDT是基于權(quán)值的弱分類器的集成
6菠镇、隨機(jī)森林是通過減少模型方差提高性能,GBDT是通過減少模型偏差提高性能
隨機(jī)森林怎么取最后的結(jié)果蚌本?
對于分類任務(wù),隨機(jī)森林是多數(shù)表決程癌;
對于回歸任務(wù)轴猎,隨機(jī)森林是簡單平均隨機(jī)森林是怎樣避免ID3算法信息增益的缺點(diǎn)的?
首先說下信息增益的過程烦秩,決策樹算法本質(zhì)上就是要找出每一列的最佳劃分以及不同列劃分的先后順序及排布郎仆。信息增益的缺點(diǎn)是比較偏向選擇取值多的屬性。而gini系數(shù)每次都是二分抛寝,所以跟屬性多少沒有關(guān)系曙旭。GBDT對異常數(shù)值敏感嗎,GBDT如何處理缺失值(如何處理缺失值和異常值)
高維KNN中的kd樹
比較經(jīng)典的網(wǎng)絡(luò)結(jié)構(gòu)(Googlenet LeNet Resnet之類)
Kaggle項(xiàng)目里如何處理數(shù)據(jù)桂躏,計算特征相關(guān)性用什么方法剂习,缺失值怎么處理?驗(yàn)證集怎么劃分鳞绕?哪些指標(biāo)說明你的模型調(diào)優(yōu)了?調(diào)節(jié)過模型的哪些參數(shù)
Kmeans 和EM算法的聯(lián)系
sgd和牛頓法的區(qū)別萄焦,牛頓法和擬牛頓法的關(guān)系冤竹,擬牛頓法解決了牛頓法哪個問題茬射,推導(dǎo)下牛頓法烘苹。牛頓法在什么時候只需要迭代一次就能求解片部,什么時候牛頓法不能適用档悠。
擬牛頓法
對比了下梯度下降法只是泰勒的一階展開式,而牛頓法是泰勒的二階展開式辖所,牛頓法主要問題在于海森矩陣求逆是一個很復(fù)雜的過程,所有才會有擬牛頓法以及相應(yīng)的改進(jìn)算法吆视。正則化方法酥宴? L1與L2的區(qū)別,為什么可以克服過擬合授滓,L1正則假設(shè)的參數(shù)分布是什么,L1為什么可以保證稀疏肆糕?
梯度消失問題的解決方案? batch normalization 為什么能夠提升訓(xùn)練速度
bagging和boosting淮摔,stacking的區(qū)別始赎,深入講解boosting,講了下gbdt,讓推導(dǎo)詳解
講一下優(yōu)化算法,推導(dǎo)下自適應(yīng)優(yōu)化算法和帶動量的梯度下降
4.基礎(chǔ)方面
數(shù)據(jù)結(jié)構(gòu)/算法
Hash及沖突解決
二叉搜索樹
手寫快排胃碾,單鏈表反轉(zhuǎn)筋搏,字符串部分逆序(如moc.anis.www轉(zhuǎn)為www.sina.com)
手寫二叉樹層序遍歷、二分查找奔脐、遞歸算法實(shí)現(xiàn)
超大文件尋找top K算法設(shè)計(單機(jī)1M內(nèi)存、Hadoop集群峦朗、外部排序+uniq命令)
訂單超大并發(fā)訪問-隊(duì)列批量處理
觀察者模式、工廠模式翎朱、適配器模式
hashmap 底層實(shí)現(xiàn)尺铣,為什么查詢快?
常見排序算法時間復(fù)雜度為O(nlogn)的有哪些澈灼,最佳店溢、最差時間復(fù)雜度分別是多少?
進(jìn)程線程區(qū)別
多線程實(shí)現(xiàn)方式荣回,線程沖突是什么叠赦、怎么解決
海量數(shù)據(jù)排序(分治)
常見排序算法的復(fù)雜度和一些細(xì)節(jié)以及改進(jìn)優(yōu)化。
計算機(jī)網(wǎng)絡(luò)
TCP三次握手除秀,四次揮手等細(xì)節(jié)册踩。
5層,7層網(wǎng)絡(luò)相關(guān)問題暂吉。
tcp和udp的區(qū)別
http和https(對稱加密、非對稱加密)
ftp和sftp
從訪問一個網(wǎng)址到頁面出現(xiàn)阎肝,描述中間發(fā)生的所有事情
操作系統(tǒng)/linux
linux進(jìn)程通信的辦法
linux處理文本日志相關(guān)常見命令
shell腳本肮街、查找文件命令
top命令、netstat命令沛硅、ifconfig和ipconfig
樂觀鎖和悲觀鎖
數(shù)據(jù)庫
SQL查詢相關(guān)業(yè)務(wù)
第一、第二摇肌、第三范式之間的理解和比較
數(shù)據(jù)庫的事務(wù)围小、ACID及隔離級別
索引優(yōu)化(組合索引、最左匹配原則)吩抓、優(yōu)缺點(diǎn)
手動寫創(chuàng)建索引的語句
并發(fā)訪問場景和所有可能出現(xiàn)的結(jié)果疹娶、鎖作用和實(shí)現(xiàn)
主主復(fù)制伦连、主從復(fù)制
B-tree的應(yīng)用
int和varchar
io優(yōu)化
分表分庫設(shè)計
Python基礎(chǔ)(重點(diǎn))
常見數(shù)據(jù)結(jié)構(gòu)用法,類繼承惑淳,內(nèi)存管理
python的異常機(jī)制
僅使用pandas庫進(jìn)行分析是否有什么性能上的問題
用Python 寫一個對文本文件的詞頻統(tǒng)計
翻轉(zhuǎn)鏈表
C++(重點(diǎn))
面向?qū)ο筇匦?br>
為什么析構(gòu)函數(shù)要是虛函數(shù)
構(gòu)造函數(shù)和析構(gòu)函數(shù)中調(diào)用虛函數(shù)時歧焦,調(diào)用的是基類還是派生類
5. 成為算法工程師,應(yīng)該學(xué)習(xí)哪些東西
傳統(tǒng)機(jī)器學(xué)習(xí)算法:
感知機(jī)向瓷,SVM, LR,softmax舰涌,Kmeans,F(xiàn)M/FFM ,DBSCAN, 決策樹(CART瓷耙,ID3,C4.5)GBDT, RF, Adaboost, xgboost, EM, BP神經(jīng)網(wǎng)絡(luò)搁痛,樸素貝葉斯,LDA,PCA,核函數(shù)鸡典,最大熵等
深度學(xué)習(xí):
CNN,RNN,LSTM,常用激活函數(shù),Adam等優(yōu)化算法巢钓,梯度消失(爆炸)
NLP:
TF-IDF, textrank, word2vec(能推導(dǎo)),LCA, simhash
常見概念:
最大似然估計硫朦,最小二乘法背镇,模型融合方法,L1L2正則(Lasso, elestic net),判別式模型與生成式模型破婆,熵-交叉熵-KL散度胸囱,數(shù)據(jù)歸一化,最優(yōu)化方法(梯度下降裳扯,牛頓法谤职,共軛梯度法),無偏估計冤吨,F(xiàn)1(ROC,recall,precision等)饶套,交叉驗(yàn)證, bias-variance-tradeoff, 皮爾遜系數(shù)
常見問題
常見損失函數(shù)
SGD與BGD
如何處理樣本非均衡問題
過擬合原因爆安,以及解決辦法
如何處理數(shù)據(jù)缺失問題
如何選擇特征
L1為什么能讓參數(shù)稀疏仔引,L2為什么會讓參數(shù)趨于較小值扔仓,L1優(yōu)化方法
各模型的優(yōu)缺點(diǎn)咖耘,以及使用場景
什么叫對一個算法熟悉
以SVM為例,SVM推導(dǎo)版保,KKT條件,什么是支持向量叫胁,什么是松弛向量汞幢,為什么推導(dǎo)成對偶形式,核函數(shù)的作用是什么输钩,如何選擇核函數(shù)仲智,模型優(yōu)缺點(diǎn)
6. 設(shè)計題
給定(用戶id,時間,經(jīng)度剪验,維度)四元組岩馍,設(shè)計方案識別用戶家和公司的位置。這題個人覺得是很好的面試設(shè)計題,我的方法是密度聚類定地點(diǎn)位置茂浮,時間段活躍特征+是否工作日訓(xùn)練分類識別別家/公司的方法
8個球,一個比其他的輕顽馋,用天平稱出該球最少用幾次幌羞,怎么稱