過去幾個(gè)月里鹅龄,有不少人聯(lián)系我揩慕,向我表達(dá)他們對(duì)數(shù)據(jù)科學(xué)、對(duì)利用機(jī)器學(xué)習(xí)技術(shù)探索統(tǒng)計(jì)規(guī)律性扮休,開發(fā)數(shù)據(jù)驅(qū)動(dòng)的產(chǎn)品的熱情迎卤。但是,我發(fā)現(xiàn)他們中有些人實(shí)際上缺少為了獲取有用結(jié)果的必要的數(shù)學(xué)直覺和框架玷坠。這是我寫這篇文章的主要原因止吐。
最近,許多好用的機(jī)器和深度學(xué)習(xí)軟件變得十分易得侨糟,例如 scikit-learn碍扔,Weka,Tensorflow秕重,等等不同。機(jī)器學(xué)習(xí)理論是與統(tǒng)計(jì)學(xué)、概率論溶耘、計(jì)算機(jī)科學(xué)二拐、算法等方面交叉的領(lǐng)域,它產(chǎn)生于從數(shù)據(jù)出發(fā)的學(xué)習(xí)迭代凳兵,試圖找出用于開發(fā)智能應(yīng)用的隱藏的洞見百新。盡管機(jī)器學(xué)習(xí)和深度學(xué)習(xí)有無限的可能性,對(duì)這些技術(shù)有一個(gè)全面的數(shù)學(xué)理解對(duì)理解算法的內(nèi)部工作機(jī)制庐扫、獲取好的結(jié)果是有必要的饭望。
為什么要關(guān)心數(shù)學(xué)?
為什么機(jī)器學(xué)習(xí)中的數(shù)學(xué)很重要形庭?這個(gè)問題的理由我想強(qiáng)調(diào)以下幾點(diǎn):
選擇合適的算法铅辞,要考慮的包括算法準(zhǔn)確性、訓(xùn)練時(shí)間萨醒、模型復(fù)雜度斟珊、參數(shù)的數(shù)量和特征數(shù)量。
選擇參數(shù)設(shè)置和驗(yàn)證策略富纸。
理解偏差與方差的權(quán)衡以確定欠擬合和過擬合囤踩。
預(yù)估正確的置信區(qū)間和不確定性旨椒。
你需要多高的數(shù)學(xué)水平?
在這里給大家推薦一個(gè)python系統(tǒng)學(xué)習(xí)q群:250933691有免費(fèi)開發(fā)工具以及初學(xué)資料堵漱,(人工智能综慎,數(shù)據(jù)分析,數(shù)據(jù)可視化怔锌,爬蟲寥粹,機(jī)器學(xué)習(xí),神經(jīng)網(wǎng)絡(luò))每天有老師給大家免費(fèi)授課埃元,歡迎一起交流學(xué)習(xí)涝涤。
試圖了解一個(gè)例如機(jī)器學(xué)習(xí)這樣的跨學(xué)科領(lǐng)域,主要的問題是必要的數(shù)學(xué)知識(shí)的量岛杀,以及理解這些技術(shù)需要的數(shù)學(xué)水平阔拳。這個(gè)問題的答案是多方面的,取決于個(gè)人水平和興趣类嗤。對(duì)數(shù)學(xué)公式和機(jī)器學(xué)習(xí)的理論發(fā)展的研究一直在進(jìn)行著糊肠,一些研究人員研究的是更先進(jìn)的技術(shù)。以下我將說明我認(rèn)為成為一名機(jī)器學(xué)習(xí)科學(xué)家/工程師需要的最低程度的數(shù)學(xué)遗锣,以及每個(gè)數(shù)學(xué)概念的重要性货裹。
1. 線性代數(shù)
Skyler Speakman曾說:“線性代數(shù)式21世紀(jì)的數(shù)學(xué)”,我完全贊同該論述精偿。在ML領(lǐng)域弧圆,線性代數(shù)無處不在。主成分分析(PCA)笔咽、奇異值分解(SVD)搔预、特征分解、LU分解叶组、QR分解拯田、對(duì)稱矩陣、正交化&標(biāo)準(zhǔn)正交化甩十、矩陣運(yùn)算船庇、投射、特征值&特征向量枣氧、向量空間和規(guī)范等這些概念對(duì)理解機(jī)器學(xué)習(xí)的優(yōu)化方法都是必須的溢十。我認(rèn)為線性代數(shù)很棒的一點(diǎn)是,互聯(lián)網(wǎng)上的資源非常多达吞。我總是說傳統(tǒng)課堂要消亡,因?yàn)榛ヂ?lián)網(wǎng)上有如此大量的資源荒典。我最喜歡的線性代數(shù)課程是MIT的Gilbert Strang教授的酪劫。
2. 概率論與數(shù)理統(tǒng)計(jì)
機(jī)器學(xué)習(xí)和數(shù)理統(tǒng)計(jì)并不是完全不同的領(lǐng)域吞鸭。事實(shí)上,最近有人把機(jī)器學(xué)習(xí)定義為“在Mac上做數(shù)理統(tǒng)計(jì)”覆糟。ML需要的數(shù)理統(tǒng)計(jì)基礎(chǔ)和概率論知識(shí)包括組合數(shù)學(xué)刻剥、概率規(guī)則&公理、貝葉斯定理滩字、隨機(jī)變量造虏、方差和均值、條件和聯(lián)合分別麦箍、標(biāo)準(zhǔn)分布(伯努利漓藕、二項(xiàng)、多項(xiàng)挟裂、統(tǒng)一和高斯)享钞、矩母函數(shù)、最大似然估計(jì)(MLE)诀蓉、先驗(yàn)和后驗(yàn)栗竖、最大后驗(yàn)估計(jì)(MAP)和采樣方法。
3. 多元微積分
必要的概念包括微積分渠啤、偏導(dǎo)數(shù)狐肢、向量函數(shù)、方向梯度沥曹、Hessian份名、Jacobian、Laplacian和Lagragian分布架专。
4. 算法和復(fù)雜性優(yōu)化
這對(duì)理解機(jī)器學(xué)習(xí)算法的計(jì)算效率和可擴(kuò)展性以及數(shù)據(jù)集的開發(fā)稀疏性很重要同窘。需要數(shù)據(jù)結(jié)構(gòu)(二叉樹、Hashing部脚、Heap想邦、Stack等等)的知識(shí),以及動(dòng)態(tài)編程委刘、隨機(jī)&次線性算法丧没、圖形、梯度/隨機(jī)趨勢(shì)锡移、以及原對(duì)偶方法的知識(shí)呕童。
5. 其他
這包括上述4個(gè)主要領(lǐng)域沒有涉及的其他數(shù)學(xué)概念。包括實(shí)分析與復(fù)分析(集合和序列淆珊、拓?fù)浣Y(jié)構(gòu)夺饲、度量空間、單值和連續(xù)函數(shù)、極限)往声、信息理論(熵擂找、信息增益)、函數(shù)空間和流形浩销。
下面是部分機(jī)器學(xué)習(xí)所需數(shù)學(xué)概念的一些MOOC和學(xué)習(xí)資料:
Khan Academy’s Linear Algebra, Probability & Statistics, Multivariable CalculusandOptimization.
Coding the Matrix: Linear Algebra through Computer Science Applications by Philip Klein, Brown University.
Linear Algebra – Foundations to Frontiers by Robert van de Geijn, University of Texas.
Applications of Linear Algebra, Part 1 and Part 2. A newer course by Tim Chartier, Davidson College.
Joseph Blitzstein – Harvard Stat 110 lectures
Larry Wasserman’s book – All of statistics: A Concise Course in Statistical Inference .
Boyd and Vandenberghe’s course on Convex optimisation from Stanford.
Linear Algebra – Foundations to Frontiers on edX.
Udacity’s Introduction to Statistics.
最后贯涎,本文的主要目的是提供有關(guān)機(jī)器學(xué)習(xí)所需的重要數(shù)學(xué)概念的建議和有用的資源。但是慢洋,有些機(jī)器學(xué)習(xí)愛好者可能是數(shù)學(xué)初學(xué)者塘雳,會(huì)覺得這篇文章令人沮喪(這并不是我的目的)。對(duì)初學(xué)者來說普筹,你并不需要先學(xué)好大量數(shù)學(xué)知識(shí)再開始做機(jī)器學(xué)習(xí)败明。正如這篇文章提到的,最基本的需要是數(shù)據(jù)分析斑芜,然后你可以在掌握更多技術(shù)和算法的過程中繼續(xù)學(xué)習(xí)數(shù)學(xué)肩刃。在這里給大家推薦一個(gè)python系統(tǒng)學(xué)習(xí)q群:250933691有免費(fèi)開發(fā)工具以及初學(xué)資料,(人工智能杏头,數(shù)據(jù)分析盈包,數(shù)據(jù)可視化,爬蟲醇王,機(jī)器學(xué)習(xí)呢燥,神經(jīng)網(wǎng)絡(luò))每天有老師給大家免費(fèi)授課,歡迎一起交流學(xué)習(xí)寓娩。