我希望分享一些偏技術(shù)性的干貨归榕。作為一名工科博士生走芋,昨天在一個(gè)線下交流群中討論了大約6個(gè)小時(shí)這一代人工智能的關(guān)鍵技術(shù)原理陈症,在這里與大家分享,我認(rèn)為自己掌握人工智能解決實(shí)際問題已經(jīng)很容易了厚掷,具體步驟如下:
1.數(shù)學(xué)基礎(chǔ):
1.1線性代數(shù)的加減乘除運(yùn)算表示弟灼,(特征根與特征向量作為提高要求级解,非必須)
1.2最優(yōu)化理論,知道目標(biāo)函數(shù)田绑,約束勤哗,優(yōu)化過程大體原理即可,不需深入掌握掩驱。
2.編程基礎(chǔ):
2.1python芒划,大家普遍提及的tensorflow就是基于python,只許簡(jiǎn)單掌握條件語(yǔ)句欧穴,循環(huán)語(yǔ)句即可民逼,剩下的想用的時(shí)候再查。
2.2tensorflow涮帘,真是越來越親民了拼苍,現(xiàn)在windows平臺(tái)也支持了。
2.3keras调缨,是tensorflow上層的封裝疮鲫,目的是使得代碼更加簡(jiǎn)單易學(xué),并且省去了大量調(diào)參操作弦叶,新手必備俊犯。
2.4sklearn,大多數(shù)機(jī)器學(xué)習(xí)方法伤哺,sklearn上都有實(shí)現(xiàn)燕侠,調(diào)用程序即可,代碼極為簡(jiǎn)單立莉。
3.理論基礎(chǔ):
這里指機(jī)器學(xué)習(xí)的理論绢彤,講四個(gè)我認(rèn)為最重要的。
3.1CNN
深度學(xué)習(xí)中應(yīng)用最廣泛的一種網(wǎng)絡(luò)桃序,理解起來不難杖虾,唯一難點(diǎn)是這里需要稍稍理解一下卷積運(yùn)算。
3.2LSTM
深度學(xué)習(xí)的一種網(wǎng)絡(luò)媒熊,用來處理時(shí)序信號(hào),網(wǎng)絡(luò)設(shè)計(jì)能夠記憶較長(zhǎng)時(shí)間之前的輸入坟比,這樣就相當(dāng)于網(wǎng)絡(luò)有了記憶芦鳍。
3.3Xgboost
目前在有監(jiān)督學(xué)習(xí)領(lǐng)域,除了深度神經(jīng)網(wǎng)絡(luò)之外葛账,就是Xgboost最好柠衅,這個(gè)需要現(xiàn)行學(xué)習(xí)決策樹理論,也要對(duì)優(yōu)化理論有一定了解籍琳,屬于稍難理解一些的方法菲宴。
3.4增強(qiáng)學(xué)習(xí)
這個(gè)最難理解贷祈,需要了解馬爾科夫鏈,以及最優(yōu)化理論喝峦,這個(gè)坑很深势誊,但個(gè)人認(rèn)為用處最大,打敗李世石用的主要就是這個(gè)谣蠢。值得深入學(xué)習(xí)粟耻。
4.學(xué)習(xí)方法:
谷歌,百度
youtube上有視頻演示眉踱,容易理解
有能力看論文的挤忙,可以搜論文看
我涉及人工智能技術(shù)不到一年,總體體會(huì)是谈喳,想應(yīng)用册烈,門檻很低,想進(jìn)行底層理論創(chuàng)新婿禽,還是比較難的赏僧,因?yàn)橛刑嗟姆庋b,應(yīng)用便捷了谈宛,但人就懶得創(chuàng)新了次哈。
希望對(duì)想進(jìn)行深入技術(shù)學(xué)習(xí)的人有所幫助。