機(jī)器學(xué)習(xí)
列一下考察的知識點(diǎn)谚攒,并附上相關(guān)的優(yōu)質(zhì)知乎討論阳准。
邏輯回歸,SVM馏臭,決策樹
邏輯回歸和SVM的區(qū)別是什么野蝇?各適用于解決什么問題?
SVM(支持向量機(jī))屬于神經(jīng)網(wǎng)絡(luò)范疇嗎绕沈?
各種機(jī)器學(xué)習(xí)的應(yīng)用場景分別是什么?例如塑崖,k近鄰,貝葉斯,決策樹痛倚,svm规婆,邏輯斯蒂回歸和最大熵模型殖属。
主成分分析讯蒲,奇異值分解
隨機(jī)森林判没,GBDT, 集成學(xué)習(xí)
為什么說bagging是減少variance玷犹,而boosting是減少bias?
基于樹的adaboost和Gradient Tree Boosting區(qū)別瀑梗?
機(jī)器學(xué)習(xí)算法中GBDT和XGBOOST的區(qū)別有哪些业汰?
為什么在實(shí)際的 kaggle 比賽中 gbdt 和 random forest 效果非常好收津?
過擬合
機(jī)器學(xué)習(xí)中用來防止過擬合的方法有哪些饿这?
機(jī)器學(xué)習(xí)中使用「正則化來防止過擬合」到底是一個什么原理?為什么正則化項(xiàng)就可以防止過擬合撞秋?
深度學(xué)習(xí)
列一下大概的考察點(diǎn)和相關(guān)的知乎討論长捧。
卷積神經(jīng)網(wǎng)絡(luò),循環(huán)神經(jīng)網(wǎng)絡(luò)吻贿,LSTM與GRU串结,梯度消失與梯度爆炸,激活函數(shù)舅列,防止過擬合的方法肌割,dropout,batch normalization帐要,各類經(jīng)典的網(wǎng)絡(luò)結(jié)構(gòu)把敞,各類優(yōu)化方法
卷積神經(jīng)網(wǎng)絡(luò)工作原理直觀的解釋?
卷積神經(jīng)網(wǎng)絡(luò)的復(fù)雜度分析
sgd有多種改進(jìn)的形式(rmsprop,adadelta等),為什么大多數(shù)論文中仍然用sgd?
你有哪些deep learning(rnn、cnn)調(diào)參的經(jīng)驗(yàn)剂邮?
深度學(xué)習(xí)中 Batch Normalization為什么效果好绰姻?
為什么現(xiàn)在的CNN模型都是在GoogleNet、VGGNet或者AlexNet上調(diào)整的引瀑?
Krizhevsky等人是怎么想到在CNN里用Dropout和ReLu的?
11.C++11的特性是否了解狂芋,使用auto方便在哪,請舉一個例子
(5)程序設(shè)計(jì)競賽的獲獎(例如OI/ACM/topcoder之類的)
1.基礎(chǔ)機(jī)器學(xué)習(xí)算法憨栽,看本經(jīng)典機(jī)器學(xué)習(xí)書帜矾,掌握基本的機(jī)器學(xué)習(xí)算法。不需要都學(xué)會屑柔,但是決策樹屡萤、樸素貝葉斯、邏輯回歸掸宛、knn死陆、svm、kmeans唧瘾、bp神經(jīng)網(wǎng)絡(luò)這幾個應(yīng)該是要認(rèn)真看措译。推導(dǎo)下算法公式,結(jié)合代碼掌握其原理饰序。在網(wǎng)上或者機(jī)器學(xué)習(xí)實(shí)戰(zhàn)里都有例子瞳遍,結(jié)合跑一下程序。各個算法的適用情況優(yōu)缺點(diǎn)菌羽,原理實(shí)現(xiàn)過程都要概述出來掠械。最后把相關(guān)算法寫在簡歷里,所寫的一定是會的注祖。2.深度學(xué)習(xí)方面猾蒂。我找工作時候只會cnn。結(jié)合cnn來說是晨,學(xué)習(xí)下幾個典型分類模型肚菠,自己搭深度學(xué)習(xí)平臺。然后跑幾個例子罩缴,從制作數(shù)據(jù)集到訓(xùn)練優(yōu)化測試走個流程蚊逢。網(wǎng)絡(luò)模型中用到的點(diǎn)一個一個查层扶,都要理解。結(jié)合研究領(lǐng)域找?guī)灼撐目纯蠢雍桑Y(jié)合別人的思路镜会,看能不能做點(diǎn)什么。相關(guān)項(xiàng)目在網(wǎng)上终抽,在實(shí)習(xí)戳表,在比賽中都能找到,一定要自己做一下昼伴。最后把成果寫在簡歷里匾旭。3.如果非計(jì)算機(jī)專業(yè)肯定要自學(xué)數(shù)據(jù)結(jié)構(gòu)的,我就刷了倆遍劍指offer圃郊。有時間你們別學(xué)我价涝,多刷點(diǎn)題吧。比如我去知乎面試算法工程師持舆,讓我寫個程序色瘩,我用的遞歸寫都忘了寫遞歸出口了,很不熟練吏廉。