[上]
摘要: 深度學(xué)習(xí)作為人工智能的前沿技術(shù)祠饺,雖然一方面推動者人工智能的發(fā)展伍俘;但是人類的終極目標(biāo)是強(qiáng)人工智能粘咖,最近也有一些關(guān)于類似于筆者認(rèn)為的廣度學(xué)習(xí)的出現(xiàn)蚣抗,但是宗其所屬,還是應(yīng)該在深度學(xué)習(xí)發(fā)展的歷史上前進(jìn)瓮下。
給大家推薦60+篇深度學(xué)習(xí)的好文翰铡。
前言
深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究,如果追溯深度學(xué)習(xí)的概念還是要回到2006年Hinton那篇論文唱捣,基于深信度網(wǎng)(DNB)提出非監(jiān)督貪心逐層訓(xùn)練算法两蟀,未解決深層結(jié)構(gòu)相關(guān)的優(yōu)化難題出現(xiàn)的論文。
其實(shí)震缭,對于我們?nèi)祟惗月柑海芏嗍虑槎际墙?jīng)過大腦的深層處理模式的解決的,筆者認(rèn)為拣宰,在未來廣度學(xué)習(xí)一定是深度學(xué)習(xí)的一個(gè)沿伸党涕,為什么?因?yàn)槿祟愖铒@著的特征并不是深度學(xué)習(xí)巡社,而是廣度學(xué)習(xí)膛堤。所謂的廣度學(xué)習(xí)是建立在一系列深度學(xué)習(xí)的基礎(chǔ)上的,廣度學(xué)習(xí)通俗的說法既是聯(lián)想能力晌该。
聯(lián)想能力對于人類來說是非常重要的能力肥荔,一個(gè)領(lǐng)域的解決方法擴(kuò)展到另外一個(gè)領(lǐng)域這種思維方式,在我們?nèi)祟悂碚f是非常普遍的朝群。但是燕耿,對于技術(shù)來說,這些能力還需要很長的路來走姜胖,起碼一點(diǎn)誉帅,就是深度學(xué)習(xí)必須達(dá)到非常高的程度。因?yàn)橹筮@樣深度學(xué)習(xí)才能真正的應(yīng)用于強(qiáng)人工智能右莱,強(qiáng)人工智能要求的就是人工智能具有聯(lián)想能力蚜锨,一旦強(qiáng)人工智能具備了強(qiáng)人工智能的基礎(chǔ),那么強(qiáng)人工智能一定會從夢想成為現(xiàn)實(shí)慢蜓。
最受歡迎的張玉宏博士的深度學(xué)習(xí)入門篇——不看絕對后悔亚再!
深度學(xué)習(xí)框架篇:
1. 機(jī)器學(xué)習(xí)的敲門磚:手把手教你TensorFlow初級入門
摘要:在開始使用機(jī)器學(xué)習(xí)算法之前,我們應(yīng)該首先熟悉如何使用它們晨抡。而本文就是通過對TensorFlow的一些基本特點(diǎn)的介紹针余,讓你了解它是機(jī)器學(xué)習(xí)類庫中的一個(gè)不錯的選擇饲鄙。
2. Windows下如何配置TensorFlow?這有個(gè)簡單明了的教程(支持GPU哦)
摘要:本文簡單介紹如何在windows系統(tǒng)下配置TensorFlow并能使用GPU進(jìn)行加速運(yùn)算的過程圆雁,文章通俗易懂忍级,更新及時(shí)。
3. 實(shí)踐指南伪朽!16位資深行業(yè)者教你如何學(xué)習(xí)使用TensorFlow
摘要:本文整理quora論壇的主題——如何開始學(xué)習(xí)TensorFlow轴咱,16位資深行業(yè)者給出了相關(guān)的建議以及對應(yīng)的學(xué)習(xí)資料鏈接。讀者可以根據(jù)自身情況參考合適的建議烈涮,是一份不可多得的學(xué)習(xí)TensorFlow的指南朴肺。
摘要:正在學(xué)習(xí)TensorFlow,利用效率不夠高坚洽?不懂TensorFlow里面的奧秘戈稿?看大神如何一步步教你如何高效使用TensorFlow!
5. IOS平臺TensorFlow實(shí)踐:邏輯斯蒂回歸(附源碼)(一)
摘要:本文是《從零到一:IOS平臺TensorFlow入門及應(yīng)用》系列一讶舰,先介紹了邏輯斯蒂回歸分類器和TensorFlow的相關(guān)知識鞍盗,然后介紹了在IOS平臺如何使用TensorFlow訓(xùn)練分類器,并附上源碼跳昼。
6. IOS平臺TensorFlow實(shí)踐:實(shí)際應(yīng)用教程(附源碼)(二)
摘要:本文是《從零到一:IOS平臺TensorFlow入門及應(yīng)用》系列二般甲,介紹IOS平臺TensorFlow的安裝,以及將系列一中開發(fā)的模型在IOS app上的實(shí)際應(yīng)用
7.一步一步帶你用TensorFlow玩轉(zhuǎn)LSTM
摘要:LSTM在解決很多實(shí)際問題上效果非常好鹅颊,通過本文你可以了解到在TensorFlow中敷存,如何實(shí)現(xiàn)基本的LSTM網(wǎng)絡(luò)。
8. 動手實(shí)驗(yàn) - TensorFlow和TensorBoard自然語言分析
摘要:動手實(shí)踐是學(xué)習(xí)任何知識的有效途徑之一堪伍。本文作者通過一個(gè)實(shí)際的例子讓我們大家動手來用TensorFlow 和TensorBoard兩個(gè)強(qiáng)大的Python工具進(jìn)行自然語言分析的應(yīng)用锚烦。
9. 一次神經(jīng)網(wǎng)絡(luò)的探索之旅-基于Tensorflow的路標(biāo)識別
摘要:是否覺得理論的神經(jīng)網(wǎng)絡(luò)有點(diǎn)抽象呢?是否想知道神經(jīng)網(wǎng)絡(luò)具體是怎么應(yīng)用呢帝雇?本文將一步一步引領(lǐng)你完成一個(gè)基于TensorFlow的交通路標(biāo)識別項(xiàng)目涮俄。還等什么呢,快來看看吧摊求。
摘要:作者從自己的過往經(jīng)歷帶領(lǐng)讀者了解模糊測試在軟件漏洞檢測中的作用,并具體到最近火熱的TensorFlow中的實(shí)際運(yùn)用刘离。給希望從事機(jī)器學(xué)習(xí)程序開發(fā)的人們室叉,在相關(guān)的軟件測試領(lǐng)域起到了很好的拋磚引玉的作用。
11. 卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用:基于Tensorflow的CNN/CRF圖像分割技術(shù)
摘要:本篇文章驗(yàn)證了卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于圖像分割領(lǐng)域時(shí)存在的一個(gè)問題——粗糙的分割結(jié)果硫惕。根據(jù)像素間交叉熵?fù)p失的定義茧痕,我們在簡化的場景下進(jìn)行了模型的訓(xùn)練,并使用后向傳播來更新權(quán)重恼除。我們使用條件隨機(jī)場(CRFs)來解決分割結(jié)果粗糙的問題踪旷,并取得了很好的效果曼氛。本文中的代碼注釋詳細(xì)、功能完善令野,也便于讀者閱讀舀患。
12. 手把手教你使用TensorFlow生成對抗樣本 | 附源碼
摘要:本文使用TensorFlow一步一步生成對抗樣本,步驟明確清晰气破。首先生成的對抗樣本不具有旋轉(zhuǎn)魯棒性聊浅,后面使用同樣的方法生成具有魯棒性的對抗樣本,適合初學(xué)者對生成對抗樣本的入門及動手實(shí)驗(yàn)现使。
13. 用TensorFlow和TensorBoard從零開始構(gòu)建ConvNet(CNN)
摘要:Tensorflow作為當(dāng)下最流行的深度學(xué)習(xí)框架低匙,實(shí)現(xiàn)ConvNet(CNN)自然是輕而易舉,但是本文創(chuàng)造性的使用的TensorBoard來圖形化展示CNN實(shí)現(xiàn)過程碳锈,極大的提高了研究者的對自己模型的管理能力顽冶。
14.一步一步學(xué)用Tensorflow構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)
摘要:本文主要和大家分享如何使用Tensorflow從頭開始構(gòu)建和訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)。這樣就可以將這個(gè)知識作為一個(gè)構(gòu)建塊來創(chuàng)造有趣的深度學(xué)習(xí)應(yīng)用程序了售碳。
15. 如何用Tensorflow實(shí)現(xiàn)RNN强重?本文將帶你進(jìn)一步研究
摘要:本文詳細(xì)介紹了如何用Tensorflow實(shí)現(xiàn)RNN,有針對性地介紹了構(gòu)建個(gè)性化的RNN時(shí)需要用什么团滥。
16. 看深度學(xué)習(xí)框架排名第一的TensorFlow如何進(jìn)行時(shí)序預(yù)測——第一篇
摘要:2017年深度學(xué)習(xí)框架關(guān)注度排名tensorflow以絕對的優(yōu)勢占領(lǐng)榜首竿屹,本文通過一個(gè)小例子介紹了TensorFlow在時(shí)序預(yù)測上的應(yīng)用。
17.如何使用最流行框架Tensorflow進(jìn)行時(shí)間序列分析——第二篇
摘要:2017年深度學(xué)習(xí)框架關(guān)注度排名tensorflow以絕對的優(yōu)勢占領(lǐng)榜首灸姊,本文通過使用tensorflow優(yōu)化過去一個(gè)使用特征提取方法的框架拱燃,證實(shí)了深度學(xué)習(xí)的優(yōu)秀性能。
摘要:在這篇文章中力惯,我們將看到一個(gè)使用了最新高級構(gòu)件的例子碗誉,包括Estimator(估算器)、Experiment(實(shí)驗(yàn))和Dataset(數(shù)據(jù)集)父晶。值得注意的是哮缺,你可以獨(dú)立地使用Experiment和Dataset。不妨進(jìn)來看看作者是如何玩轉(zhuǎn)這些高級API的甲喝。
19.PyTorch vs TensorFlow尝苇,哪個(gè)更適合你
摘要:本文將探討PyTorch和TensorFlow這兩種流行深度學(xué)習(xí)框架之間的關(guān)鍵相似點(diǎn)和不同點(diǎn)。為什么選擇這兩個(gè)框架埠胖,而不是其他的呢糠溜?
20. 強(qiáng)大的PyTorch:10分鐘讓你了解深度學(xué)習(xí)領(lǐng)域新流行的框架
摘要: 今年一月份開源的PyTorch,因?yàn)樗鼜?qiáng)大的功能直撤,它現(xiàn)在已經(jīng)成為深度學(xué)習(xí)領(lǐng)域新流行框架非竿,它的強(qiáng)大源于它內(nèi)部有很多內(nèi)置的庫。本文就著重介紹了其中幾種有特色的庫谋竖,它們能夠幫你在深度學(xué)習(xí)領(lǐng)域更上一層樓红柱。
21. 深度學(xué)習(xí)有很長的一段路要走承匣!Keras作者談機(jī)器學(xué)習(xí)的局限性
摘要:迄今為止,深度學(xué)習(xí)唯一真正的成功之處锤悄,是在給出了大量的人為標(biāo)注數(shù)據(jù)之后韧骗,使用連續(xù)的幾何變換將空間X映射到空間Y。 做好這一切铁蹈,是每個(gè)行業(yè)游戲制定者必備的能力宽闲,但對于人類級別的AI,仍然有很長的路要走握牧。
摘要:還在苦惱如何寫自己的CNN網(wǎng)絡(luò)容诬?看大神如何使用keras11行代碼構(gòu)建CNN網(wǎng)絡(luò),有源碼提供。
23.解讀Keras在ImageNet中的應(yīng)用:詳解5種主要的圖像識別模型
摘要:自從2012年以來沿腰,CNN和其它深度學(xué)習(xí)技術(shù)就已經(jīng)占據(jù)了圖像識別的主流地位览徒。本文以Keras為例,介紹了5種主要的圖像識別模型颂龙,并通過實(shí)際案例進(jìn)行詳細(xì)介紹习蓬。
24. 私人定制——使用深度學(xué)習(xí)Keras和TensorFlow打造一款音樂推薦系統(tǒng)
摘要:還在為蝦米音樂等APP的精準(zhǔn)推送感到驚奇嘛?快來瞅瞅措嵌,自己也可以私人定制一個(gè)音樂推薦系統(tǒng)啦躲叼。本文利用深度學(xué)習(xí)打造一個(gè)音樂推薦系統(tǒng),處理起來不是很復(fù)雜企巢,主要是先收集音樂制作成一個(gè)音樂庫枫慷,然后對音樂進(jìn)行處理轉(zhuǎn)換成相關(guān)的頻譜圖,不同類型的音樂對應(yīng)不同的頻譜圖浪规,之后利用這些頻譜圖訓(xùn)練搭建的卷積神經(jīng)網(wǎng)絡(luò)模型或听,以此實(shí)現(xiàn)后續(xù)的音樂推薦。
25. 十分鐘教程:用Keras實(shí)現(xiàn)seq2seq學(xué)習(xí)
摘要:序列到序列學(xué)習(xí)(seq2seq)是一種把序列從一個(gè)域(例如英語中的句子)轉(zhuǎn)換為另一個(gè)域中的序列(例如把相同的句子翻譯成法語)的模型訓(xùn)練方法笋婿。目前有多種方法可以用來處理這個(gè)任務(wù)誉裆,可以使用RNN,也可以使用一維卷積網(wǎng)絡(luò)缸濒。這里足丢,我們將重點(diǎn)介紹RNN。
26. 兩個(gè)小例子帶你詞嵌入層學(xué)習(xí)入門——Keras版
摘要:本文通過兩個(gè)小例子介紹了如何使用Keras完成使用詞嵌入層的相關(guān)方法庇配,對于初學(xué)者來說斩跌,這種教程最為受用,通過不長的代碼來教最難的知識讨永。文中有源碼滔驶!
27. 驚遇革!C++竟然還能有這種操作——高性能深度學(xué)習(xí)庫(DLL)
摘要:C++也能玩轉(zhuǎn)深度學(xué)習(xí)了卿闹?沒錯揭糕,高性能C++深度學(xué)習(xí)庫(DLL)已經(jīng)發(fā)布了,本文作者為了滿足自己的需求俏让,開發(fā)了支持C++接口的深度學(xué)習(xí)庫蝇庭。作者特意用了兩個(gè)小例子讓你見識一下C++也能玩轉(zhuǎn)深度學(xué)習(xí)砰逻,而且玩的比其他庫還要6!
摘要:PyTorch是一個(gè)發(fā)展迅速的框架吏口,并擁有一個(gè)很棒的社區(qū)。這個(gè)框架很容易使用冰更,編起代碼來也很開心产徊。
RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))篇:
1. 深度學(xué)習(xí)界冉冉升起的新星——循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)
摘要:隨著深度學(xué)習(xí)的流行,循環(huán)神經(jīng)網(wǎng)絡(luò)也隨之受到了業(yè)內(nèi)人士的廣泛關(guān)注蜀细。目前該技術(shù)已經(jīng)在自然語言處理(NLP)中取得了巨大的成功舟铜,想了解么?快來看看吧奠衔。
2.簡單入門循環(huán)神經(jīng)網(wǎng)絡(luò)RNN:時(shí)間序列數(shù)據(jù)的首選神經(jīng)網(wǎng)絡(luò)
摘要:本文簡單介紹循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的發(fā)展過程谆刨,分析了梯度下降算法、反向傳播及LSTM過程归斤。
3. 深度學(xué)習(xí)零基礎(chǔ)?沒關(guān)系——面向藝術(shù)家的RNN教程
摘要:本文適用于沒有任何機(jī)器學(xué)習(xí)背景的讀者痊夭,目標(biāo)是向藝術(shù)家和設(shè)計(jì)師展示如何使用一個(gè)預(yù)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)并使用簡單的Javascript和p5.js庫生成交互式的數(shù)字作品。教程簡單詳細(xì)脏里,沒有任何的公式與推導(dǎo)她我。
4. 通過SketchRNN、PCA和t-SNE從Google QuickDraw數(shù)據(jù)集中顯示矢量圖的潛在空間|附源碼
摘要:本文通過SketchRNN膝宁、PCA以及t-SNE這三種方式可視化并分析了谷歌QuickDraw涂鴉數(shù)據(jù)集的潛層空間鸦难,可以從可視化圖中找到涂鴉的一些規(guī)律,并提煉出語義及更抽象的概念员淫。
5. 如何用Tensorflow實(shí)現(xiàn)RNN合蔽?本文將帶你進(jìn)一步研究
摘要:本文詳細(xì)介紹了如何用Tensorflow實(shí)現(xiàn)RNN,有針對性地介紹了構(gòu)建個(gè)性化的RNN時(shí)需要用什么介返。
6.看大牛如何復(fù)盤遞歸神經(jīng)網(wǎng)絡(luò)拴事!
摘要:復(fù)盤遞歸神經(jīng)網(wǎng)絡(luò),通過復(fù)盤圣蝎,反思刃宵,讓遞歸神經(jīng)網(wǎng)絡(luò)更完美!
7. 送機(jī)器學(xué)習(xí)電子書——(TensorFlow)RNN入門
摘要:本文作者正在寫自己的新書《Machine Learning with TensorFlow》徘公,這篇博文只是他新書的一小部分牲证,作者用簡單的語言介紹了RNN,不用一個(gè)小例子介紹了如何使用Tensorflow中內(nèi)置的RNN模型進(jìn)行預(yù)測关面。
CNN(卷積神經(jīng)網(wǎng)絡(luò))篇:
1. Top100論文導(dǎo)讀:深入理解卷積神經(jīng)網(wǎng)絡(luò)CNN(Part Ⅰ)
摘要:作者從目前熱門的top 100 優(yōu)秀深度學(xué)習(xí)論文中選取一組論文為大家進(jìn)行純干貨總結(jié)坦袍,該組包含8篇經(jīng)典論文十厢,主要講解卷積神經(jīng)網(wǎng)絡(luò)CNN的經(jīng)典結(jié)構(gòu)以及針對不同任務(wù)進(jìn)行的結(jié)構(gòu)上的改進(jìn)。由淺入深的講解捂齐,適合入門了解卷積神經(jīng)網(wǎng)絡(luò)的整體網(wǎng)絡(luò)結(jié)構(gòu)及發(fā)展過程——向著更深蛮放、復(fù)雜度更低的方向發(fā)展。
2. Top100論文導(dǎo)讀:深入理解卷積神經(jīng)網(wǎng)絡(luò)CNN(PartⅡ)
摘要:作者從目前熱門的top 100 優(yōu)秀深度學(xué)習(xí)論文中選取一組論文為大家進(jìn)行純干貨總結(jié)奠宜,該組包含8篇經(jīng)典論文包颁,主要講解卷積神經(jīng)網(wǎng)絡(luò)CNN的經(jīng)典結(jié)構(gòu)以及針對不同任務(wù)進(jìn)行的結(jié)構(gòu)上的改進(jìn)。由淺入深的講解压真,適合入門了解卷積神經(jīng)網(wǎng)絡(luò)的整體網(wǎng)絡(luò)結(jié)構(gòu)及發(fā)展過程——向著更深娩嚼、復(fù)雜度更低的方向發(fā)展。
3. 深度學(xué)習(xí)的效果為何如此驚人滴肿?看看全息理論怎么說
摘要:大家一定不會對近幾年來日益熱門的深度學(xué)習(xí)技術(shù)感到陌生待锈。但是大家有沒有想過,構(gòu)成深度學(xué)習(xí)基礎(chǔ)的深層卷積網(wǎng)絡(luò)并不復(fù)雜嘴高,為什么這樣的結(jié)構(gòu)解決實(shí)際問題時(shí)能夠取得如此神奇的效果竿音?或許,我們可以從全息理論中找到答案拴驮。
4. 卷積神經(jīng)網(wǎng)絡(luò)實(shí)戰(zhàn)(可視化部分)——使用keras識別貓咪
摘要:在近些年春瞬,深度學(xué)習(xí)領(lǐng)域的卷積神經(jīng)網(wǎng)絡(luò)(CNNs或ConvNets)在各行各業(yè)為我們解決了大量的實(shí)際問題。但是對于大多數(shù)人來說套啤,CNN仿佛戴上了神秘的面紗宽气。我經(jīng)常會想,要是能將神經(jīng)網(wǎng)絡(luò)的過程分解潜沦,看一看每一個(gè)步驟是什么樣的結(jié)果該有多好萄涯!這也就是這篇博客存在的意義。
5. 基于圖卷積網(wǎng)絡(luò)的圖深度學(xué)習(xí)
摘要:處理圖結(jié)構(gòu)數(shù)據(jù)的佼佼者唆鸡!
摘要:還在苦惱如何寫自己的CNN網(wǎng)絡(luò)涝影?看大神如何使用keras11行代碼構(gòu)建CNN網(wǎng)絡(luò),有源碼提供。
7.一步一步學(xué)用Tensorflow構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)
摘要:本文主要和大家分享如何使用Tensorflow從頭開始構(gòu)建和訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)争占。這樣就可以將這個(gè)知識作為一個(gè)構(gòu)建塊來創(chuàng)造有趣的深度學(xué)習(xí)應(yīng)用程序了燃逻。
8. 想改進(jìn)你的卷積神經(jīng)網(wǎng)絡(luò)?看看這14種設(shè)計(jì)模式臂痕!
摘要:這14 種原創(chuàng)設(shè)計(jì)模式可以幫助沒有經(jīng)驗(yàn)的研究者去嘗試將深度學(xué)習(xí)與新應(yīng)用結(jié)合伯襟,對于那些沒有機(jī)器學(xué)習(xí)博士學(xué)位的人來說是一個(gè)很好的起點(diǎn)。
9. 論文導(dǎo)讀:面向卷積神經(jīng)網(wǎng)絡(luò)的卷積核冗余消除策略
摘要: 本篇論文針對卷積神經(jīng)網(wǎng)絡(luò)在訓(xùn)練階段所需的大量存儲與計(jì)算資源握童,提出了一種改進(jìn)的冗余卷積核消除策略姆怪,精簡每個(gè)卷積層中冗余的卷積核,進(jìn)而降低模型訓(xùn)練開銷,使模型訓(xùn)練過程從云端轉(zhuǎn)移至本地成為可能稽揭。
10. 能幫你更好理解分析深度卷積神經(jīng)網(wǎng)絡(luò)红伦,今天要解讀的是一款新型可視化工具——CNNVis,看完就能用淀衣!
摘要:深度卷積神經(jīng)網(wǎng)絡(luò)(CNNs)在許多模式識別任務(wù)中取得了很大的性能突破, 然而高質(zhì)量深度模型的發(fā)展依賴于大量的嘗試召调,這是由于沒有很好的理解深度模型是怎么工作的膨桥,在本文中,提出了一個(gè)可視化分析系統(tǒng)CNNVis唠叛,幫助機(jī)器學(xué)習(xí)專家更好的理解只嚣、分析、設(shè)計(jì)深度卷積神經(jīng)網(wǎng)絡(luò)艺沼。
NLP(自然語言處理)篇:
1. 一篇很好的參考文章:深度學(xué)習(xí)算法在自然語言處理中的一些心得
摘要:對于初涉深度學(xué)習(xí)的初學(xué)者册舞,本文作者根據(jù)自己的學(xué)習(xí)經(jīng)驗(yàn),分享了自己的學(xué)習(xí)筆記障般,是一份很好的關(guān)于深度學(xué)習(xí)的學(xué)習(xí)參考调鲸。
2. 深度學(xué)習(xí)和自然語言處理:詮釋詞向量的魅力
摘要:本次的主題是“word2vec”,主要是總結(jié)了Google公司的Mikolov等人關(guān)于詞向量的工作(以及你可以用它做什么)挽荡。
3. 哪種詞向量模型更勝一籌藐石?Word2Vec,WordRank or FastText?
摘要:本文在不同語料庫下分析了FastText,Word2Vec和WordRank三種詞嵌入模型的性能定拟,發(fā)現(xiàn)沒有單獨(dú)的一種模型能夠用于不同類型NLP任務(wù)于微。
摘要:本文對著名的詞向量公式 king-man+woman=queen背后的原理進(jìn)行了解釋青自。通過文章我們可以一窺詞向量算法在機(jī)器學(xué)習(xí)領(lǐng)域中對拼音文字語言處理上的出色結(jié)果株依。
5. 百度Deep Voice詳解分析:快速理解語音合成流程
摘要:本文介紹一篇關(guān)于Deep Voice的論文,Deep Voice是應(yīng)用深度學(xué)習(xí)將文本轉(zhuǎn)換語音的系統(tǒng)延窜,詳細(xì)分析了論文的創(chuàng)新點(diǎn)及其文本轉(zhuǎn)語音的具體過程恋腕,對每一步驟的輸入與輸出解釋得很清楚,相信對Deep Voice入門了解會有所幫助逆瑞。
6.零基礎(chǔ)進(jìn)行神經(jīng)網(wǎng)絡(luò)語言建模
摘要:本文從最簡單的語言模型開始介紹吗坚,以優(yōu)化模型性能為目標(biāo),由淺到深的介紹了神經(jīng)網(wǎng)絡(luò)模型在語言模型中的應(yīng)用呆万。
摘要:作者通過分析2017年ACL的論文商源,以及演講內(nèi)容,得出了四個(gè)NLP深度學(xué)習(xí)趨勢:Linguistic Structure 谋减、 Word Embeddings牡彻、Interpretability 、Attention。今天我們就逐一分析一下這四個(gè)深度學(xué)習(xí)趨勢庄吼。
8. 2017年ACL的四個(gè)NLP深度學(xué)習(xí)趨勢 (二):可解釋性和注意力(Interpretability and Attention)
摘要:作者通過分析2017年ACL的論文缎除,以及演講內(nèi)容,得出了四個(gè)NLP深度學(xué)習(xí)趨勢:Linguistic Structure 总寻、 Word Embeddings器罐、Interpretability 、Attention渐行。今天我們就逐一分析一下這四個(gè)深度學(xué)習(xí)趨勢轰坊。
9. 自然語言處理多任務(wù)學(xué)習(xí)目標(biāo)
摘要:本文作者通過閱讀大量關(guān)于自然語言處理多任務(wù)的論文,并進(jìn)行系統(tǒng)的整理分析分類祟印。對于想要了解自然語言處理多任務(wù)學(xué)習(xí)的朋友來說肴沫,本文會在理論上給予極大的幫助。
摘要:本文介紹了用于自然語言處理任務(wù)的標(biāo)準(zhǔn)數(shù)據(jù)集蕴忆,在你研究深度學(xué)習(xí)的時(shí)候可以使用颤芬。
摘要:作者在文章中用淺顯的語言介紹了詞袋模型是什么、存在的意義是什么等問題套鹅,內(nèi)容豐富站蝠,思路清晰,淺顯易懂卓鹿,但又不失文章所述內(nèi)容的專業(yè)性沉衣、技術(shù)性,值得一讀减牺。
LSTM(時(shí)間遞歸神經(jīng)網(wǎng)絡(luò))篇:
摘要:本文介紹了LSTM的發(fā)展歷史豌习,并且深入淺出的介紹了LSTM的核心思想(無非就是幾個(gè)高深莫測的公式),作者通過圖形化的方法解釋了公式拔疚,使得核心思想更加容易理解肥隆。
2. 如何為LSTM重新構(gòu)建輸入數(shù)據(jù)(Keras)
摘要:對于初入門的開發(fā)人員,如何為LSTM準(zhǔn)備數(shù)據(jù)一直是一個(gè)問題稚失。在為LSTM準(zhǔn)備數(shù)據(jù)的過程中的確有很多需要注意的問題栋艳,閱讀本文可能會幫助你解決更多的問題。
3.一步一步帶你用TensorFlow玩轉(zhuǎn)LSTM
摘要:LSTM在解決很多實(shí)際問題上效果非常好句各,通過本文你可以了解到在TensorFlow中吸占,如何實(shí)現(xiàn)基本的LSTM網(wǎng)絡(luò)。
4:基于Keras的LSTM多變量時(shí)間序列預(yù)測
摘要凿宾; 還在為設(shè)計(jì)多輸入變量的神經(jīng)網(wǎng)絡(luò)模型發(fā)愁矾屯?來看看大神如何解決基于Keras的LSTM多變量時(shí)間序列預(yù)測問題!文末附源碼初厚!
5. 教你打造股市晴雨表——通過LSTM神經(jīng)網(wǎng)絡(luò)預(yù)測股市
摘要:神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)中的熱門話題件蚕。但是網(wǎng)絡(luò)上有關(guān)LSTM在時(shí)間序列上的應(yīng)用卻很少,我們不妨透過本文來開拓LSTM的應(yīng)用視野。
本系列博客內(nèi)容由北郵@愛可可-愛生活老師推薦排作,@阿里云云棲社區(qū)組織翻譯牵啦,翻譯小組袁虎負(fù)責(zé)整理,校審:主題曲哥哥妄痪。本系列長期更新哈雏,更多關(guān)于深度學(xué)習(xí)優(yōu)質(zhì)好文,多多推薦衫生!
[下]
深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究裳瘪,如果追溯深度學(xué)習(xí)的概念還是要回到2006年Hinton那篇論文,基于深信度網(wǎng)(DNB)提出非監(jiān)督貪心逐層訓(xùn)練算法障簿,未解決深層結(jié)構(gòu)相關(guān)的優(yōu)化難題出現(xiàn)的論文。
其實(shí)栅迄,對于我們?nèi)祟惗哉竟剩芏嗍虑槎际墙?jīng)過大腦的深層處理模式的解決的,筆者認(rèn)為毅舆,在未來廣度學(xué)習(xí)一定是深度學(xué)習(xí)的一個(gè)沿伸西篓,為什么?因?yàn)槿祟愖铒@著的特征并不是深度學(xué)習(xí)憋活,而是廣度學(xué)習(xí)岂津。所謂的廣度學(xué)習(xí)是建立在一系列深度學(xué)習(xí)的基礎(chǔ)上的,廣度學(xué)習(xí)通俗的說法既是聯(lián)想能力悦即。
聯(lián)想能力對于人類來說是非常重要的能力吮成,一個(gè)領(lǐng)域的解決方法擴(kuò)展到另外一個(gè)領(lǐng)域這種思維方式,在我們?nèi)祟悂碚f是非常普遍的辜梳。但是粱甫,對于技術(shù)來說,這些能力還需要很長的路來走作瞄,起碼一點(diǎn)茶宵,就是深度學(xué)習(xí)必須達(dá)到非常高的程度。因?yàn)橹筮@樣深度學(xué)習(xí)才能真正的應(yīng)用于強(qiáng)人工智能宗挥,強(qiáng)人工智能要求的就是人工智能具有聯(lián)想能力乌庶,一旦強(qiáng)人工智能具備了強(qiáng)人工智能的基礎(chǔ),那么強(qiáng)人工智能一定會從夢想成為現(xiàn)實(shí)契耿。
最受歡迎的張玉宏博士的深度學(xué)習(xí)入門篇——不看絕對后悔瞒大!
深度學(xué)習(xí)實(shí)戰(zhàn)篇:
1. 間諜衛(wèi)星的基礎(chǔ)?YOLT——利用卷積神經(jīng)網(wǎng)絡(luò)對衛(wèi)星影像進(jìn)行多尺度目標(biāo)檢測
摘要:利用卷積神經(jīng)網(wǎng)絡(luò)(CNN)對衛(wèi)星影像進(jìn)行多尺度目標(biāo)檢測搪桂,該文是在YOLO模型的基礎(chǔ)上改進(jìn)提出YOLT模型糠赦,該方法極大的提高了背景區(qū)分,并能夠在不同尺度和多個(gè)傳感器上快速檢測出物體。
2. 實(shí)踐:基于深度學(xué)習(xí)的衛(wèi)星圖像超分辨率處理技術(shù)
摘要:Yann Lecun曾將無監(jiān)督學(xué)習(xí)比作蛋糕拙泽,將監(jiān)督學(xué)習(xí)比作蛋糕上的糖霜淌山,聲稱我們僅懂得如何做糖霜卻不知道怎樣才能做出蛋糕。在本篇文章中顾瞻,我們提供了一份訓(xùn)練無監(jiān)督學(xué)習(xí)算法的“蛋糕”配方泼疑,用來增強(qiáng)衛(wèi)星圖像。
3.日常新聞能用來精準(zhǔn)預(yù)測股市動向嗎荷荤?這篇聚焦開放數(shù)據(jù)的訪談或能給你答案
摘要:日常新聞標(biāo)題能用來精準(zhǔn)地預(yù)測股市動向嗎退渗?在本次聚焦開放數(shù)據(jù)欄目中,Jiahao談?wù)摿俗鳛橐幻處熢贙aggle開放數(shù)據(jù)分析平臺上共享數(shù)據(jù)集的理由蕴纳,迄今為止Kaggle用戶實(shí)現(xiàn)的一些重大的基準(zhǔn)預(yù)測会油,以及他對基于新聞標(biāo)題實(shí)現(xiàn)交易算法的可行性的看法。
4. 教你打造股市晴雨表——通過LSTM神經(jīng)網(wǎng)絡(luò)預(yù)測股市
摘要:神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)中的熱門話題古毛。但是網(wǎng)絡(luò)上有關(guān)LSTM在時(shí)間序列上的應(yīng)用卻很少翻翩,我們不妨透過本文來開拓LSTM的應(yīng)用視野。
摘要:如今,Twitter塞椎、Tumblr和Facebook等社交網(wǎng)站深受互聯(lián)網(wǎng)用戶歡迎桨仿。在這些熱門網(wǎng)站上,每天都有數(shù)以百萬的消息產(chǎn)生案狠。這些消息的作者記錄自己的生活服傍,分享對不同話題的看法,并討論當(dāng)前的問題骂铁。此類網(wǎng)站已經(jīng)成為人們評論與情感信息的寶貴來源伴嗡,這樣的數(shù)據(jù)能夠有效地用于營銷或社交研究。
6. 一次神經(jīng)網(wǎng)絡(luò)的探索之旅-基于Tensorflow的路標(biāo)識別
摘要:是否覺得理論的神經(jīng)網(wǎng)絡(luò)有點(diǎn)抽象呢从铲?是否想知道神經(jīng)網(wǎng)絡(luò)具體是怎么應(yīng)用呢瘪校?本文將一步一步引領(lǐng)你完成一個(gè)基于TensorFlow的交通路標(biāo)識別項(xiàng)目。還等什么呢名段,快來看看吧阱扬。
7. 快切屏,老板來了伸辟!記一次有趣的深度學(xué)習(xí)實(shí)踐
摘要:在你的工作時(shí)間麻惶,有沒有上網(wǎng)瀏覽一些與你工作無關(guān)的網(wǎng)站呢?每當(dāng)這種時(shí)候信夫,如果我發(fā)現(xiàn)老板不知何時(shí)已經(jīng)站在我背后時(shí)窃蹋,我會感到非常尷尬卡啰。當(dāng)然,我可以迅速地切換屏幕警没,但這種行為實(shí)在是太可疑了匈辱,更何況有時(shí)我都不會注意到他已經(jīng)在那了。所以杀迹,為了解決這個(gè)問題亡脸,我創(chuàng)建了一個(gè)使用Keras的系統(tǒng),它能自動識別我
8. GitHub網(wǎng)站究竟可不可靠树酪?谷歌工程師教你用BigQuery一探究竟
摘要:GitHub的可靠性有沒有達(dá)到SLA的要求浅碾?網(wǎng)站近期的SLO又如何?有了GitHub的網(wǎng)站日志以及BigQuery工具的幫助续语,我們可以更加深入地定義并度量這些指標(biāo)垂谢。在本篇文章中,作者結(jié)合Github公開的部分?jǐn)?shù)據(jù)疮茄,使用BigQuery以及一系列數(shù)據(jù)可視化方法對Github網(wǎng)站的可靠性展開了分析滥朱。
9. 比人工還準(zhǔn)確!看深度學(xué)習(xí)如何對源碼進(jìn)行分類
摘要:根據(jù)代碼識別編程語言的源代碼分類器將是一個(gè)非常有用的工具娃豹,因?yàn)樗捎糜谠诰€自動語法高亮和標(biāo)簽建議焚虱,比如可用在StackOverflow和技術(shù)維基網(wǎng)站上购裙。這個(gè)想法促使我們根據(jù)最新的AI技術(shù)編寫一個(gè)對代碼片段依據(jù)編程語言進(jìn)行分類的模型懂版。
10.純干貨:深度學(xué)習(xí)實(shí)現(xiàn)之空間變換網(wǎng)絡(luò)-part1
摘要:本文介紹了仿射變換和雙線性插值在圖片變換中的應(yīng)用。
11.DeepTraffic: 如何讓MIT的游戲利用深度學(xué)習(xí)來減少交通阻塞
摘要:大家都對交通阻塞深惡痛絕躏率。除了讓人頭疼和錯過約會之外躯畴,交通擁堵讓美國的司機(jī)每年多花3000億美元。研究人員建議大家使用自動駕駛汽車薇芝,即使數(shù)量占比并不大蓬抄,但也能大大改善交通擁堵情況。 Lex Fridman和他的MIT團(tuán)隊(duì)開發(fā)了一款模擬游戲來加速實(shí)現(xiàn)這個(gè)未來夯到。
12. 私人定制——使用深度學(xué)習(xí)Keras和TensorFlow打造一款音樂推薦系統(tǒng)
摘要:還在為蝦米音樂等APP的精準(zhǔn)推送感到驚奇嘛嚷缭?快來瞅瞅,自己也可以私人定制一個(gè)音樂推薦系統(tǒng)啦耍贾。本文利用深度學(xué)習(xí)打造一個(gè)音樂推薦系統(tǒng)阅爽,處理起來不是很復(fù)雜,主要是先收集音樂制作成一個(gè)音樂庫荐开,然后對音樂進(jìn)行處理轉(zhuǎn)換成相關(guān)的頻譜圖付翁,不同類型的音樂對應(yīng)不同的頻譜圖,之后利用這些頻譜圖訓(xùn)練搭建的卷積神經(jīng)網(wǎng)絡(luò)模型晃听,以此實(shí)現(xiàn)后續(xù)的音樂推薦百侧。
13. 準(zhǔn)確率98%的深度學(xué)習(xí)交通標(biāo)志識別是如何做到的砰识?
摘要:我們可以創(chuàng)建一個(gè)能夠?qū)煌?biāo)志進(jìn)行分類的模型,并且讓模型自己學(xué)習(xí)識別這些交通標(biāo)志中最關(guān)鍵的特征佣渴。在這篇文章中辫狼,我將演示如何創(chuàng)建一個(gè)深度學(xué)習(xí)架構(gòu),這個(gè)架構(gòu)在交通標(biāo)志測試集上的識別準(zhǔn)確率達(dá)到了98%观话。
14. 深度學(xué)習(xí)項(xiàng)目實(shí)戰(zhàn)——“年齡預(yù)測”
摘要:學(xué)了那么多深度學(xué)習(xí)的基本知識灵迫,還在發(fā)愁沒有地方展示自己學(xué)過的知識狞换?來試試這個(gè)簡單的實(shí)際問題吧黄琼!
摘要:本文探討的是開發(fā)一個(gè)能夠?qū)π呐K磁共振成像(MRI)數(shù)據(jù)集圖像中的右心室自動分割的系統(tǒng)裤园。到目前為止淤袜,這主要是通過經(jīng)典的圖像處理方法來處理的库倘。而現(xiàn)代深度學(xué)習(xí)技術(shù)有可能提供更可靠饱亿、更自動化的解決方案配猫。
16. 對象跟蹤小白?本文帶你玩轉(zhuǎn)OpenCV(C ++ / Python)
摘要:本文中我們將學(xué)習(xí)OpenCV 3.0中引入的OpenCV跟蹤API冯丙,以及學(xué)習(xí)OpenCV 3.2中提供的6種不同的跟蹤器蛹疯。
17. (OpenCV/Python)實(shí)現(xiàn)OCR銀行票據(jù)
摘要:OCR也算是計(jì)算機(jī)視覺的一部分苦始,今天我們來介紹一下如何使用(opencv/python)來實(shí)現(xiàn)OCR處理銀行票據(jù)理郑。
深度學(xué)習(xí)雜談篇:
1. 深度學(xué)習(xí)都需要了解什么蹄溉?無從下手的話,可以看看這份深度學(xué)習(xí)速查表
摘要:本文介紹了一些深度學(xué)習(xí)中的常見概念您炉,如梯度柒爵、后向傳播、ReLU赚爵、Dropout棉胀、交叉熵與softmax等,以幫助大家快速了解深度學(xué)習(xí)冀膝。
2. 最前沿:圖文結(jié)合詳解深度學(xué)習(xí)Memory & Attention
摘要:該文獻(xiàn)主要介紹深度學(xué)習(xí)網(wǎng)絡(luò)中語音唁奢、文字以及圖片這塊中的典型神經(jīng)網(wǎng)絡(luò),重點(diǎn)介紹Memory與Attention的發(fā)展前沿窝剖,分析了幾個(gè)詳細(xì)的典型模型驮瞧,說明Memory與Attention在文字、語音以及圖片相關(guān)應(yīng)用中的重要性枯芬。
3. 想學(xué)習(xí)高大上的深度學(xué)習(xí)技術(shù)么论笔?快來看看這本書
摘要:本文簡單介紹了 Goodfellow 所著的《深度學(xué)習(xí)》的主要內(nèi)容,非常透徹地分析了該書的優(yōu)缺點(diǎn)以及適用群體千所。想學(xué)習(xí)深度學(xué)習(xí)么狂魔?快來看看吧。
4. 簡單入門——深度學(xué)習(xí)筆記(Part I)
摘要:本文是一篇關(guān)于深度學(xué)習(xí)的入門筆記淫痰,簡單的介紹了神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)最楷,包含輸入層、隱藏層以及輸出層待错;介紹了前向傳播過程以及反饋傳播過程籽孙。深度學(xué)習(xí)的優(yōu)點(diǎn)在于其能夠?qū)?fù)雜的模式分解成一系列更簡單的模式,缺點(diǎn)是訓(xùn)練所花費(fèi)的時(shí)間以及受到計(jì)算機(jī)運(yùn)算能力的限制等火俄。
5.簡單入門——深度學(xué)習(xí)筆記(Part II)
摘要:本文是一篇關(guān)于深度學(xué)習(xí)的入門筆記犯建,簡單的介紹了幾種神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)以及原理,包含受限玻爾茲曼機(jī)瓜客、卷積神經(jīng)網(wǎng)絡(luò)适瓦、循環(huán)神經(jīng)網(wǎng)絡(luò)等;介紹他們的訓(xùn)練的基本過程谱仪,并說明各自應(yīng)用領(lǐng)域玻熙,適合深度學(xué)習(xí)研究者的入門理解。
6.高性能計(jì)算技術(shù)也能助推大規(guī)模深度學(xué)習(xí)(百度實(shí)踐)
摘要:本文描寫了百度硅谷人工智能實(shí)驗(yàn)室在深度學(xué)習(xí)框架中引入HPC技術(shù)的實(shí)踐疯攒,通過對OpenMPI里ring all-reduce算法進(jìn)行改進(jìn)嗦随,使語音識別訓(xùn)練模型的性能得到數(shù)十倍的提升,最后百度開源了其實(shí)現(xiàn)敬尺,希望更多的人受益枚尼。
7. Top 100論文導(dǎo)讀:純干貨肌毅!深度神經(jīng)網(wǎng)絡(luò)中的理解,泛化以及遷移學(xué)習(xí)
摘要:作者從目前熱門的top 100 優(yōu)秀深度學(xué)習(xí)論文中選取第一組論文為大家進(jìn)行純干貨總結(jié)姑原,該組包含6篇論文悬而,主要講解使用可視化技術(shù)分析深度神經(jīng)網(wǎng)絡(luò)DNNs(大多是卷積神經(jīng)網(wǎng)絡(luò)CNNs)學(xué)習(xí)的東西,泛化性以及遷移學(xué)習(xí)锭汛。
8. 論文導(dǎo)讀:深度神經(jīng)網(wǎng)絡(luò)中的對抗樣本與學(xué)習(xí)(附原文)
摘要:本文介紹了關(guān)于對抗樣本的7篇文獻(xiàn)笨奠,解釋了對抗樣本的產(chǎn)生及攻擊原理,對深層神經(jīng)網(wǎng)絡(luò)會有什么影響等唤殴。結(jié)果表明般婆,即使是訓(xùn)練得非常好的神經(jīng)網(wǎng)絡(luò)在對抗樣本前會顯得那么脆弱,不過我們可以通過利用對抗樣本進(jìn)行對抗訓(xùn)練以提高模型的努棒性朵逝。
9. 深度學(xué)習(xí)中的基礎(chǔ)線性代數(shù)-初學(xué)者指南
摘要:線性代數(shù)在深度學(xué)習(xí)領(lǐng)域有著舉足輕重的作用蔚袍,它是深度學(xué)習(xí)各種算法的基本數(shù)學(xué)工具。本文作者對深度學(xué)習(xí)中會用到的一些線性代數(shù)的基本概念和運(yùn)算操作進(jìn)行了介紹配名,希望能讓有興趣的同學(xué)一起來進(jìn)行學(xué)習(xí)啤咽。
10. 神經(jīng)網(wǎng)絡(luò)能解決所有問題嗎?
摘要:在深度學(xué)習(xí)過程中渠脉,你或許會碰到一般近似定理:僅含有一層的前饋網(wǎng)絡(luò)足以有效地表示任何函數(shù)宇整,但是這樣的網(wǎng)絡(luò)結(jié)構(gòu)可能會格外龐大,進(jìn)而無法正確的學(xué)習(xí)和泛化芋膘。這是一個(gè)令人驚奇的觀點(diǎn)鳞青。如果你可以接受大多數(shù)種類的問題都可以約化成函數(shù),那么這句話就是說为朋,神經(jīng)網(wǎng)絡(luò)可以在理論上解決任何問題臂拓。
11. 深度學(xué)習(xí):隨機(jī)值不可思議的有效性
摘要:隨機(jī)性在深度學(xué)習(xí)中有多么重要?這篇文章或許能給你答案习寸。
12. 大神帶你分分鐘超越最好結(jié)果——基于分布式CPU計(jì)算的Deeplearning4j遷移學(xué)習(xí)應(yīng)用實(shí)例
摘要:本文通過應(yīng)用開源工具Apache Spack胶惰、Apache Hadoop和Deeplearning4j以分布式CPU運(yùn)算完成VGG16模型遷移學(xué)習(xí)的應(yīng)用,在Caltech-256數(shù)據(jù)集上實(shí)現(xiàn)了最好結(jié)果融涣。
13. 一個(gè)偉大愿景:讓深度學(xué)習(xí)更簡單
摘要:文章簡要概述了一個(gè)深度學(xué)習(xí)的開源庫童番,文末有這個(gè)開源庫的地址精钮。
摘要:世界上沒有完美無缺的技術(shù)威鹿,深度學(xué)習(xí)也是如此。本文著重向我們介紹了深度學(xué)習(xí)發(fā)展的六大障礙轨香!
15.Python Ubuntu虛擬機(jī)深度學(xué)習(xí)入門
摘要:任何技術(shù)的入門都是第一只出現(xiàn)的攔路虎忽你,對于初學(xué)者來說,工具的安裝著實(shí)讓人頭疼臂容。本文作者介紹如何使用Ubuntu入門深度學(xué)習(xí)的教程科雳,Python版根蟹。
摘要:本文列舉了一些常用的深度學(xué)習(xí)的訓(xùn)練技巧,對這些技巧進(jìn)行簡單的介紹并說明它們的工作原理糟秘。涉及范圍廣简逮,適合深度學(xué)習(xí)各領(lǐng)域的研究者。
摘要:作者為了搭建了一個(gè)基于Ubuntu和Nvidia的深度學(xué)習(xí)計(jì)算機(jī)尿赚,閱讀了大量的文檔來了解細(xì)節(jié)和規(guī)范散庶,并把所做的所有工作整理并記錄了下來。
深度學(xué)習(xí)競賽篇:
1. 未來的超級智能網(wǎng)絡(luò)攻擊需要AI競技俱樂部來拯救
摘要:數(shù)據(jù)科學(xué)競賽平臺Kaggle將舉辦一場為期五個(gè)月的AI競賽凌净,這場競賽將展示未來網(wǎng)絡(luò)安全和網(wǎng)絡(luò)戰(zhàn)爭的樣子悲龟,而戰(zhàn)爭中的攻守雙方都是AI算法,它們將互相迷惑互相欺騙冰寻,以研究如何加強(qiáng)機(jī)器學(xué)習(xí)系統(tǒng)來抵御未來可能出現(xiàn)的攻擊须教。
2. 教你如何在機(jī)器學(xué)習(xí)競賽中更勝一籌(上)
摘要:本文總結(jié)由Marios Michailidis(a.k.a Kazanova),Kaggle Grandmaster在2016年3月5日現(xiàn)在排名第3位的在線研討會上分享的技巧斩芭,更好地在機(jī)器學(xué)習(xí)競賽中取勝
3. 教你如何在機(jī)器學(xué)習(xí)競賽中更勝一籌(下)
摘要:本文總結(jié)由Marios Michailidis(a.k.a Kazanova)轻腺,Kaggle Grandmaster在2016年3月5日現(xiàn)在排名第3位的在線研討會上分享的技巧,更好地在機(jī)器學(xué)習(xí)競賽中取勝
4:5個(gè)步驟 & 7個(gè)提示 | 一份開啟Kaggle競賽征途的初學(xué)者指南
摘要:本文是關(guān)于Kaggle數(shù)據(jù)科學(xué)競賽平臺的初學(xué)者指南划乖,總結(jié)出五個(gè)步驟和七個(gè)提示约计。其中五步驟介紹了由淺入深地慢慢適應(yīng)Kaggle競賽,七個(gè)提示讓初學(xué)者能夠享受在Kaggle平臺上的一切迁筛。最后強(qiáng)調(diào)煤蚌,通過Kaggle平臺著重鍛煉提示自己的職業(yè)技能,而不是看中競賽的獎金细卧。
5.Kaggle首席技術(shù)官發(fā)布——(Kaggle)NIPS 2017對抗學(xué)習(xí)挑戰(zhàn)賽起步指南
摘要:本文是一個(gè)入門介紹尉桩,由Kaggle首席技術(shù)官Ben簡單介紹以下2017年的NIPS 對抗學(xué)習(xí)競賽數(shù)據(jù)的處理,用一個(gè)具體的代碼實(shí)例介紹了如何生成目標(biāo)對抗圖像與非目標(biāo)對抗圖像贪庙,將對抗圖像送入原先的分類器中蜘犁,可以看到結(jié)果與原圖大相徑庭。
6. 一次競賽案例的分享——基于正則表達(dá)式的深度學(xué)習(xí)應(yīng)用
摘要:正則表達(dá)式被用來定義文本的格式止邮,而深度學(xué)習(xí)則被廣泛應(yīng)用在語音識別这橙,機(jī)器翻譯,計(jì)算機(jī)視覺等方面导披。當(dāng)它們結(jié)合起來屈扎,會迸發(fā)出怎樣的火花呢?
7. Kaggle老手領(lǐng)你入門梯度提升——梯度提升兩三事
摘要:梯度提升方法(Gradient Boosting)在眾多機(jī)器學(xué)習(xí)競賽中有著廣泛的應(yīng)用撩匕。本文介紹了梯度提升的基本概念鹰晨,并結(jié)合實(shí)例討論了梯度提升方法在實(shí)踐中應(yīng)用。
8. 自動預(yù)測保險(xiǎn)理賠:用具體案例講解機(jī)器學(xué)習(xí)之特征預(yù)處理
摘要:針對Kaggle保險(xiǎn)索賠競賽給定的數(shù)據(jù)集,本文詳細(xì)介紹了如何利用python對數(shù)據(jù)集進(jìn)行分析并對特種進(jìn)行預(yù)處理操作模蜡。以保險(xiǎn)索賠競賽案例和詳細(xì)的操作步驟漠趁,生動形象的講解了自動預(yù)測保險(xiǎn)索賠的算法流程。
9. 為什么Kaggle數(shù)據(jù)分析競賽者偏愛XGBoost
摘要:本文介紹了深受Kaggle數(shù)據(jù)分析競賽參賽者歡迎的一個(gè)梯度提升算法實(shí)現(xiàn)-XGBoost忍疾,在分類算法中闯传,XGBoost以速度制勝,精度與Sci-Kit Learn相當(dāng)卤妒,在Kaggle競賽中打敗了AdaBoost(自適應(yīng)提升算法)和RandomForest(隨機(jī)森林算法)丸边。
10. 干貨|大神教你如何參加kaggle比賽——根據(jù)CT掃描圖預(yù)測肺癌
摘要:本文介紹Deep Breath團(tuán)隊(duì)在kaggle競賽上取得第九名使用的方法,主要包括數(shù)據(jù)處理以及相關(guān)針對數(shù)據(jù)處理的不同網(wǎng)絡(luò)架構(gòu)的搭建荚孵,最后說明了kaggle競賽的一些注意事項(xiàng)妹窖。
作者:阿里云云棲社區(qū)
鏈接:https://zhuanlan.zhihu.com/p/30264305