首先叁幢,無論是哪方面的程序員滤灯,都要大量的投資算法和數(shù)據(jù)結(jié)構(gòu)。因?yàn)檫@是你的基本技能遥皂,就像棋手需要知道每個(gè)棋子的走法一樣力喷。在算法學(xué)習(xí)的過程中刽漂,你繞不過的就是衡量算法的效率演训,也就不可避免的學(xué)習(xí)Big O的知識(shí)。Big O贝咙,需要你了解函數(shù)和極限的一些知識(shí)样悟,比如說,f(n) = O(g(n))是這樣定義的庭猩,當(dāng)n足夠大的時(shí)候窟她,你總可以找到一個(gè)常數(shù)c,使得c * f(n) >g(n)蔼水。除了效率震糖,還有如何證明算法的正確性。這就要求掌握一些證明方法趴腋,比如反正法吊说,遞推歸納法。
其次优炬,如果你遇到了性能方面的問題颁井,需要降低延遲,增加吞吐的時(shí)候蠢护,你很有可能需要去設(shè)計(jì)高性能的隊(duì)列系統(tǒng)雅宾,這時(shí)排隊(duì)論的知識(shí)就顯得尤為重要了。排隊(duì)論要學(xué)好葵硕,概率論是基石眉抬。隊(duì)列在計(jì)算機(jī)系統(tǒng)中隨處可見,操作系統(tǒng)中的進(jìn)程調(diào)度問題懈凹,基于隊(duì)列解藕生產(chǎn)者消費(fèi)者的架構(gòu)問題等等蜀变。
接下來如果你對(duì)離散優(yōu)化問題感興趣,如說背包問題蘸劈,旅行者問題昏苏,當(dāng)你需要優(yōu)化一個(gè)目標(biāo)函數(shù)的時(shí)候,你往往會(huì)用到梯度下降法,而理解梯度下降法贤惯,對(duì)微積分要有很好的理解洼专。更不用說在人工智能,機(jī)器學(xué)習(xí)領(lǐng)域孵构,到處都得優(yōu)化目標(biāo)函數(shù)屁商,降低預(yù)測誤差,想走的遠(yuǎn)颈墅,是必須要有數(shù)學(xué)基礎(chǔ)的蜡镶。
然后再說一下,線性代數(shù)恤筛,特別是在人工智能里面官还,很多基本的模型都是線性的,你會(huì)隨處看到矩陣的用處毒坛,單純的只知道矩陣如何相乘是遠(yuǎn)遠(yuǎn)不夠的望伦,要理解的跟深入,矩陣是一個(gè)函數(shù)煎殷,用來轉(zhuǎn)換矢量屯伞,既然是函數(shù),就會(huì)具有很多函數(shù)的特點(diǎn)豪直。
分布式系統(tǒng)中的鼻祖級(jí)論文劣摇,Lamport的時(shí)間,時(shí)鐘弓乙,和事件的順序末融,據(jù)他所說是他從相對(duì)論中的時(shí)間和空間的關(guān)系中得到的靈感。由此可見唆貌,不僅是數(shù)學(xué)滑潘,物理也很重要。