WHO behind the malign and attack on ELM, GOAL of the attack and ESSENCE of ELM:O網(wǎng)頁鏈接和O網(wǎng)頁鏈接
“Mining of Massive Datasets” 官網(wǎng)O網(wǎng)頁鏈接责嚷,英文好的同學(xué)也可以直接看最新的英文版材料眉睹,包括斯坦福大數(shù)據(jù)相關(guān)課程資料以及兩個版本的英文ebook组哩,官網(wǎng)已經(jīng)無私放出? 斯坦福大學(xué)“web挖掘”課程精華骇陈,聚焦大規(guī)模數(shù)據(jù)挖掘锅劝。內(nèi)容包括分布式文件系統(tǒng)泊业、搜索引擎技術(shù)遂庄、頻繁項(xiàng)集挖掘古戴、聚類算法掰盘、廣告管理及推薦系統(tǒng)、社會網(wǎng)絡(luò)圖挖掘和大規(guī)模機(jī)器學(xué)習(xí)等赞季。試讀:O【試讀】《大數(shù)據(jù):互聯(lián)網(wǎng)大規(guī)模數(shù)據(jù)挖掘與分布式處理(第2版)》.pdf
論文《How to Generate a Good Word Embedding?》已傳arXiv愧捕。文章總結(jié)了主流詞向量模型,并從模型申钩、語料次绘、參數(shù)三方面分析生成詞向量的要點(diǎn)。論文地址:O網(wǎng)頁鏈接中文導(dǎo)讀:O網(wǎng)頁鏈接? 補(bǔ)充一個?Strategies for Training Large Scale Neural Network Language ModelsO網(wǎng)頁鏈接
我發(fā)表了文章 <?IJCAI-15文本摘要論文5篇>O?IJCAI-15文本摘要論文5篇Multi-Document Abstractive Summarization Using ILP based Multi-Sentence Compression, Siddhartha Banerjee, The Pennsylvania State University.O網(wǎng)頁鏈接Reader-Aware Multi-Document Summ
[ICML15] Universal Value Function ApproximatorsO網(wǎng)頁鏈接DeepMind出品撒遣。先對少量目標(biāo)學(xué)習(xí)值函數(shù)邮偎,再推廣到整個目標(biāo)空間。在吃豆游戲上實(shí)驗(yàn)义黎,學(xué)會若干次吃掉某一個豆后禾进,可推廣到吃掉另一個豆,看來要吃完所有豆廉涕,DeepMind還有很長的路要走……
【新機(jī)器學(xué)習(xí)應(yīng)用的意外后果和負(fù)面影響】《The Unintended Consequences and Negative Impact of New Machine Learning Applications》by Guy LebanonO網(wǎng)頁鏈接
【教程+代碼:非參數(shù)貝葉斯統(tǒng)計(jì)/狄利克雷過程/組合隨機(jī)過程特征/聚類】"Nonparametric Bayesian Statistics(MLSS2015)"命迈、"Clusters and features from combinatorial stochastic processes"、"Machine learning crash course part II: clustering" by Tamara BroderickO網(wǎng)頁鏈接
【視頻:NAACL2015】O網(wǎng)頁鏈接
【視頻:NAACL2015最佳論文《Retrofitting Word Vectors to Semantic Lexicons》】《Retrofitting Word Vectors to Semantic Lexicons》[CMU]O網(wǎng)頁鏈接更多NAACL2015視頻請參閱O愛可可-愛生活
【SVD教程】《Singular Value Decomposition Tutorial》by Kirk BakerO網(wǎng)頁鏈接云:O網(wǎng)頁鏈接
深入對話DeepMind創(chuàng)始人O網(wǎng)頁鏈接
深入探索 IBM 數(shù)據(jù)分析和預(yù)測軟件 – PASW Modeler O網(wǎng)頁鏈接
K-means算法及文本聚類實(shí)踐 | 一起大數(shù)據(jù) 無處不在的聚類 O網(wǎng)頁鏈接
【論文:面向LDA的增量變分推斷】《Incremental Variational Inference for Latent Dirichlet Allocation》C Archambeau, B Ermis (2015)O網(wǎng)頁鏈接
NVIDIA Deep Learning Course |O網(wǎng)頁鏈接免費(fèi)的火的,有人想注冊看看不壶愤。將介紹Caffe、Theano和Torch三大主流DL框架馏鹤。
從Twitter上看到Dato的SFrame和SGraph會直接BSD開源(目前是AGPL)O網(wǎng)頁鏈接征椒。這是目前唯一的的優(yōu)化外存計(jì)算的DataFrame,單機(jī)處理TB級別數(shù)據(jù)湃累〔龋靠壓榨單機(jī)極限處理百分之八十的問題,才可以用更少的機(jī)器處理分布式機(jī)器學(xué)習(xí)治力。這才是DataFrame 的未來@Gossip_useR@Jay_Dato機(jī)器學(xué)習(xí)
edX上的“Scalable Machine Learning”將于下周一(6月29日開課)O網(wǎng)頁鏈接蒙秒,今早收到郵件提醒,week0的資料已經(jīng)放出宵统,主要包括課程的大致介紹晕讲,環(huán)境的設(shè)置,以及與另一門Spark課程“Introduction to Big Data with Apache Spark”O網(wǎng)頁鏈接的關(guān)系马澈,感興趣的同學(xué)可以關(guān)注瓢省。
近日,阿里巴巴無線事業(yè)部推出首個重量級Android開源項(xiàng)目痊班,名為Dexposed勤婚,是一個Android平臺下的無侵入運(yùn)行期AOP框架。旨在解決像性能監(jiān)控涤伐、在線熱補(bǔ)丁等移動開發(fā)常見難題:O網(wǎng)頁鏈接馒胆,項(xiàng)目主頁:O網(wǎng)頁鏈接
《一個數(shù)據(jù)科學(xué)家的這些年》O網(wǎng)頁鏈接
大規(guī)模機(jī)器學(xué)習(xí)技術(shù) 百度 夏粉 視頻O網(wǎng)頁鏈接
We are data: the future of machine intelligenceO網(wǎng)頁鏈接
從Twitter上看到Dato的SFrame和SGraph會直接BSD開源(目前是AGPL)O網(wǎng)頁鏈接缨称。這是目前唯一的的優(yōu)化外存計(jì)算的DataFrame,單機(jī)處理TB級別數(shù)據(jù)祝迂∧谰。靠壓榨單機(jī)極限處理百分之八十的問題,才可以用更少的機(jī)器處理分布式機(jī)器學(xué)習(xí)液兽。這才是DataFrame 的未來@Gossip_useR@Jay_Dato機(jī)器學(xué)習(xí)
本來覺得lda已經(jīng)沒有什么意思了,最近發(fā)現(xiàn)實(shí)際場景用好也非常重要且有趣掌动。以前太慢四啰,工業(yè)級成功案例并不多,現(xiàn)在速度不再是約束粗恢,希望lda在大規(guī)模應(yīng)用中發(fā)揮出它的優(yōu)勢柑晒,特別是無監(jiān)督學(xué)習(xí)獨(dú)特的優(yōu)勢,直到它成為最有用的十個機(jī)器學(xué)習(xí)算法之一眷射,取代svd在協(xié)同推薦中角色匙赞。適合推動這個發(fā)展的人不多。妖碉。
在CF中的主要角色已經(jīng)從傳統(tǒng)的MF轉(zhuǎn)化到基于特征的分解模型(svdfeature, fm)和匹配模型涌庭,通過特征獲得更簡單的定制,在這點(diǎn)上是LDA的短板欧宜。不過反過來說坐榆,因?yàn)槎ㄖ撇蝗菀祝匀菀装l(fā)論文冗茸。
論文《How to Generate a Good Word Embedding?》已傳arXiv席镀。文章總結(jié)了主流詞向量模型,并從模型夏漱、語料豪诲、參數(shù)三方面分析生成詞向量的要點(diǎn)。論文地址:O網(wǎng)頁鏈接中文導(dǎo)讀:O網(wǎng)頁鏈接? 我感覺不是數(shù)據(jù)越小簡單模型越好挂绰,而是數(shù)據(jù)越稀疏簡單模型越好屎篱。一個大規(guī)模數(shù)據(jù)如果平均每個對象出現(xiàn)次數(shù)非常少,應(yīng)該還是簡單模型好葵蒂。//@魯東東胖: //@董力xp: 1. 語料比模型選擇更重要2.語料領(lǐng)域比規(guī)模更重要3.數(shù)據(jù)越小芳室,簡單模型越好4.對具體任務(wù),一般50維以上提升變小5.模型迭代次數(shù)選擇很重要刹勃。
Visual Studio 2015正式版完美公布堪侯,如果你錯過了昨晚的發(fā)布會,小編已經(jīng)為你準(zhǔn)備好了精華提煉完整版荔仁,趕緊戳鏈接了解詳情伍宦,不然你今天就Out啦~O每一位攻城獅都不能錯過的Visual Studio 2015正式版#VS2015#下載地址:O網(wǎng)頁鏈接
適合碼農(nóng)看的機(jī)器學(xué)習(xí)介紹芽死,長文慎入:Machine Learning for Developers by Mike de WaardO網(wǎng)頁鏈接
一個新的近似最近鄰Python庫: a new out-of-memory ANN search toolO網(wǎng)頁鏈接
關(guān)于multi-armed bandit的有意思介紹 :Efficient experimentation and the multi-armed banditO網(wǎng)頁鏈接
DeepMind: inside Google's super-brain (Wired UK)O網(wǎng)頁鏈接
Visual Studio 2015 是一個超級棒的跨平臺移動應(yīng)用開發(fā)工具,對Cordova次洼,Xamarin , C++的跨平臺支持都非常好关贵。讓你通過一個工具完成了iOS ,Android ,Windows 三個平臺的應(yīng)用。#VS2015#@微軟中國MSDN? 奏事介么牛XB艋佟揖曾!趕緊用起來,下載地址:O網(wǎng)頁鏈接
Tumblr定向廣告用戶建模: 性別和商業(yè)興趣(標(biāo)簽,關(guān)鍵詞;半監(jiān)督神經(jīng)語言模型Semi-supervised skip-gram) O網(wǎng)頁鏈接
編譯器詞法分析Lex亥啦、C語言標(biāo)準(zhǔn)I/O庫前身炭剪、對C語言發(fā)展有重要貢獻(xiàn)的Mike Lesk 1996年文章:信息檢索的七個時(shí)代 從V.Bush1945到2010, 65歲的一生: 童年45-55 在校生60s 成年70s 成熟80s 中年危機(jī)90s 成就00s 退休10sO網(wǎng)頁鏈接
編譯器詞法分析Lex、C語言標(biāo)準(zhǔn)I/O庫前身翔脱、對C語言發(fā)展有重要貢獻(xiàn)的Mike Lesk在PNAS15發(fā)表評論文章:有多少論文不是原創(chuàng)的O網(wǎng)頁鏈接1)文章提到arXiv的抄襲 2)文章說浙大為發(fā)表在Science或Nature論文獎勵3萬美元? 引用約三千了 JPA Ioannidis 2005O網(wǎng)頁鏈接//@JYaoTheGunner: 結(jié)合Why Most Published Research Findings Are False食用風(fēng)味更佳……?
引用過萬提出Gibbs采樣和證明模擬退火收斂性PAMI84模式識別兄弟Geman(哥Donald; 弟Stuart,博導(dǎo)Chernoff) PNAS15計(jì)算機(jī)視覺系統(tǒng)的圖靈測試, 問答方式而不是檢測和定位的準(zhǔn)確性O網(wǎng)頁鏈接
Hinton機(jī)器學(xué)習(xí)課程 1)本科(課件在coursera): mini-batch梯度下降 動量法 自適應(yīng)學(xué)習(xí)率 序列建模 訓(xùn)練RNN的難點(diǎn) Dropout 噪音作為正則化子 語義哈希 2)研究生: 變分貝葉斯的起源 基于能量的模型 深度神經(jīng)網(wǎng)絡(luò)識別對象 詞和文檔建模 協(xié)同過濾 前饋網(wǎng)絡(luò)和RNN等價(jià)性 非線性維度約簡O網(wǎng)頁鏈接
【針對大數(shù)據(jù)/數(shù)據(jù)挖掘/數(shù)據(jù)科學(xué)工具共同使用情況的調(diào)查(挖掘)】《Which Big Data, Data Mining, and Data Science Tools go together?》O網(wǎng)頁鏈接
【Maxout Networks的(交互式)介紹】《Maxout Networks》O網(wǎng)頁鏈接
【基于Chainer實(shí)現(xiàn)的多層感知機(jī)驗(yàn)證碼識別】O網(wǎng)頁鏈接
【基于Spark的并行隨機(jī)學(xué)習(xí)算法開發(fā)框架Splash】by Yuchen ZhangO網(wǎng)頁鏈接GitHub:O網(wǎng)頁鏈接
【大規(guī)模機(jī)器學(xué)習(xí)技術(shù)】本報(bào)告將向大家分享了大規(guī)模機(jī)器學(xué)習(xí)和數(shù)據(jù)挖掘方面的話題和研發(fā)成果奴拦, 將以廣告大數(shù)據(jù)上的點(diǎn)擊率預(yù)估,介紹大規(guī)模機(jī)器學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)問題的區(qū)別届吁,大規(guī)模機(jī)器學(xué)習(xí)面臨的問題错妖,大規(guī)模機(jī)器學(xué)習(xí)的過程,并介紹最新的大規(guī)模機(jī)器學(xué)習(xí)技術(shù)疚沐。O網(wǎng)頁鏈接
【深度學(xué)習(xí)對抗樣本的誤解與事實(shí)】《Deep Learning Adversarial Examples – Clarifying Misconceptions》by Ian Goodfellow [Google]O網(wǎng)頁鏈接? 提供的譯文《深度學(xué)習(xí)對抗樣本的八個誤解與事實(shí)》O網(wǎng)頁鏈接
最新對Nvidia Maxwell架構(gòu)提供多GPU支持的0.9版發(fā)布【Nervana Systems的開源深度學(xué)習(xí)框架neon發(fā)布】值得關(guān)注暂氯!GitHub:O網(wǎng)頁鏈接文檔:O網(wǎng)頁鏈接報(bào)道《Nervana open-sources its deep-learning software, says it outperforms Facebook, Nvidia tools》O網(wǎng)頁鏈接橫向評測結(jié)果O愛可可-愛生活?
[視頻]《General Sequence Learning using Recurrent Neural Networks》O網(wǎng)頁鏈接Alec Radford講的用RNN做文本序列分析(學(xué)習(xí)) 云:O網(wǎng)頁鏈接Alec Radford的Passage:O愛可可-愛生活? clip.mn上的標(biāo)注版本:O網(wǎng)頁鏈接
【Airbnb的大規(guī)模數(shù)據(jù)科學(xué)研發(fā)】《At Airbnb, Data Science Belongs Everywhere: Insights from Five Years of Hypergrowth》O網(wǎng)頁鏈接? "Data Isn’t Numbers, It’s People"
【視頻:概率與偏見——縮小機(jī)器學(xué)習(xí)與概率編程的差距】《Probability and Prejudice: Bridging the Gap Between Machine Learning and Programming Languages》by Neil TorontoO網(wǎng)頁鏈接
【高效實(shí)驗(yàn)和多臂老虎機(jī)】《Efficient Experimentation And The Multi-Armed Bandit》O網(wǎng)頁鏈接
【Kaggle犯罪預(yù)測競賽NB方案(top 33%)】《Machine learning to predict San Francisco crime》O網(wǎng)頁鏈接
【論文:面向GPS定位數(shù)據(jù)做用戶鑒別的時(shí)空技術(shù)】《Spatio-Temporal Techniques for User Identification by means of GPS Mobility Data》L Rossi, J Walker, M Musolesi (2015)O網(wǎng)頁鏈接
【Spotify推深度個性化推薦服務(wù)Discover Weekly】《Spotify launches Discover Weekly personalised ‘mixtape’ playlist》“We’re just getting started when it comes to deep personalisation, lots more to come.”O網(wǎng)頁鏈接
《How to Generate a Good Word Embedding?》 論文《How to Generate a Good Word Embedding?》已傳arXiv。文章總結(jié)了主流詞向量模型亮蛔,并從模型株旷、語料、參數(shù)三方面分析生成詞向量的要點(diǎn)尔邓。論文地址:O網(wǎng)頁鏈接中文導(dǎo)讀:O網(wǎng)頁鏈接
【論文:核插值可擴(kuò)展結(jié)構(gòu)化高斯過程 (KISS-GP)】《Kernel Interpolation for Scalable Structured Gaussian Processes (KISS-GP)》A Wilson, H Nickisch (ICML2015)O網(wǎng)頁鏈接? 相關(guān)介紹文章《Kernel Interpolation for Scalable Structured Gaussian Processes》O網(wǎng)頁鏈接
【《語音與語言處理》第三版(草稿)】《Speech and Language Processing, 3rd edition draft》by Jurafsky and MartinO網(wǎng)頁鏈接? 北美最受歡迎的NLP教材之一的Jurafsky and Martin出新版啦
《愛可可老師今日視野(15.07.21)》( 分享自@簡書)O網(wǎng)頁鏈接
【幻燈:歸納半監(jiān)督學(xué)習(xí)及其NLP應(yīng)用】《Inductive Semi-supervised Learning with Applicability to NLP》O網(wǎng)頁鏈接
【基于Python/Flask的在線文本分析工作流】O網(wǎng)頁鏈接
【基于表達(dá)式構(gòu)建的神經(jīng)網(wǎng)絡(luò)框架penne】"Python Easy Neural Network Extruder"O網(wǎng)頁鏈接
【熵晾剖、冪率與經(jīng)濟(jì)學(xué)】《Entropy, Power Laws, and Economics》by Tom Carter (2007)O網(wǎng)頁鏈接云:O網(wǎng)頁鏈接
【PyStruct實(shí)例:基于CRF鏈的OCR】《OCR Letter sequence recognition》O網(wǎng)頁鏈接PyStruct請參閱O愛可可-愛生活
【Pandas與Spark DataFrames的比較】《6 Differences Between Pandas And Spark DataFrames》O網(wǎng)頁鏈接
《LDA算法漫游指南》新書已經(jīng)上架(最專業(yè)的算法分析,最具實(shí)用價(jià)值的算法應(yīng)用):O網(wǎng)頁鏈接? 想起了當(dāng)年@rickjin出品《LDA數(shù)學(xué)八卦》的盛況O網(wǎng)頁鏈接? 你還在從PRML摳狄利特雷梯嗽,多項(xiàng)式分布齿尽,吉布斯采樣嗎?這本全括了? 《LDA算法漫游指南》 強(qiáng)烈推薦灯节! 挺好的循头,能加上lightlda 就更好了。
【開源:基于Chainer實(shí)現(xiàn)的Deep Q-Networks】"DQN-chainer"O網(wǎng)頁鏈接自動游戲視頻《Deep Q-Network Nature ver. Pong》:O網(wǎng)頁鏈接云:O網(wǎng)頁鏈接
【Kaggle競賽技巧與總結(jié)(匯總)】《Kaggle Competition Tips And Summaries》O網(wǎng)頁鏈接
【論文+代碼:CNN用于圖像識別/目標(biāo)檢測的深入分析(比較)】《Return of the Devil in the Details: Delving Deep into Convolutional Nets》K Chatfield, K Simonyan, A Vedaldi, A Zisserman (BMVC2014)O網(wǎng)頁鏈接項(xiàng)目主頁(代碼+模型數(shù)據(jù)):O網(wǎng)頁鏈接? Lasagne下應(yīng)用該文數(shù)據(jù)的實(shí)例:O網(wǎng)頁鏈接云(轉(zhuǎn)換后的訓(xùn)練模型數(shù)據(jù)):O網(wǎng)頁鏈接
【開源:基于Numpy/Scipy/Theano/Matplotlib的sklearn-theano】O網(wǎng)頁鏈接GitHub:O網(wǎng)頁鏈接相關(guān)文章《使用sklearn-theano來做object detection目標(biāo)檢測 (OverFeat)》O網(wǎng)頁鏈接
【"Methods for Improving Bayesian Optimization for AutoML】"Machine Learning for Automated Algorithm Design, 自動機(jī)器學(xué)習(xí)炎疆,自動進(jìn)行算法選擇和參數(shù)調(diào)整卡骂,paper:O網(wǎng)頁鏈接code:O網(wǎng)頁鏈接?