所謂深度工作(Deep Work)阐肤,就是在無干擾的狀態(tài)下專注進(jìn)行職業(yè)活動犀变,使個人的認(rèn)知能力達(dá)到極限稀拐。這種努力能夠創(chuàng)造新價值,提升技能碗暗,而且難以復(fù)制萍摊。 深度工作可以幫助我們: ...
![240](https://cdn2.jianshu.io/assets/default_avatar/9-cceda3cf5072bcdd77e8ca4f21c40998.jpg?imageMogr2/auto-orient/strip|imageView2/1/w/240/h/240)
所謂深度工作(Deep Work)阐肤,就是在無干擾的狀態(tài)下專注進(jìn)行職業(yè)活動犀变,使個人的認(rèn)知能力達(dá)到極限稀拐。這種努力能夠創(chuàng)造新價值,提升技能碗暗,而且難以復(fù)制萍摊。 深度工作可以幫助我們: ...
1倡勇、什么是集成學(xué)習(xí) 根據(jù)維基百科的說法:在統(tǒng)計學(xué)和機(jī)器學(xué)習(xí)中著觉,集成學(xué)習(xí)方法使用多種學(xué)習(xí)算法來獲得比單獨使用任何單獨的學(xué)習(xí)算法更好的預(yù)測性能村生。 具體說來,就是對于訓(xùn)練集數(shù)據(jù)饼丘,我...
1趁桃、簡述感知機(jī)模型并證明其收斂性 感知機(jī)是二分類的線性分類模型,感知機(jī)對應(yīng)于特征空間中將實例劃分為正負(fù)兩類的分離超平面肄鸽,屬于判別模型卫病。 感知機(jī)模型如下: 其損失函數(shù)為誤分類的...
1、談?wù)剬Q策樹的理解(定義&原理) 定義 決策樹模型呈樹形結(jié)構(gòu)典徘,在分類問題中蟀苛,表示基于特征對實例進(jìn)行分類的過程: 決策樹可以被視為一組完備且互斥的 if-then 規(guī)則的集...
1、手推LogisticRegression(損失函數(shù)) 二項邏輯斯蒂回歸模型是如下條件概率分布: 這里的包含偏置項逮诲,即為帜平,其對應(yīng)的。 由此可得: 即: 也就是說梅鹦,的對數(shù)幾率...
1裆甩、手推SVM 整體思路: 定義樣本點到目標(biāo)超平面的幾何距離: 定義間隔(margin)為各樣本點到超平面的最小距離: 根據(jù)間隔最大化的目標(biāo)寫出規(guī)劃: 由于和對應(yīng)超平面相同,...
以下摘錄自《Think Python》齐唆。 隨著你寫的函數(shù)越來越大嗤栓,你在調(diào)試上花的時候可能會越來越多。為了應(yīng)對越來越復(fù)雜的程序箍邮,你可能會想嘗試一種叫作增量式開發(fā)(increme...
機(jī)器學(xué)習(xí)中至關(guān)重要的問題就是如何衡量模型的泛化能力抛腕,泛化能力的強(qiáng)弱直接度量了算法是否學(xué)習(xí)到了對任務(wù)真正重要的特征。 在深度學(xué)習(xí)中媒殉,防止過擬合更是重中之重担敌,因為神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能...
1、概述 LightGBM是微軟于2017年提出的boosting框架廷蓉,其基本原理與XGBoost一樣全封,使用基于學(xué)習(xí)算法的決策樹,只是在框架上做了一優(yōu)化(重點在模型的訓(xùn)練速度...
筆誤桃犬,已修改刹悴。多謝提醒。
kaggle入門之戰(zhàn)——Titanic機(jī)器學(xué)習(xí)的理論部分大致過了一遍了攒暇,下一步要理論聯(lián)系實踐了土匀。Kaggle是一個很好的練手場,這個數(shù)據(jù)挖掘比賽平臺最寶貴的資源有兩個: 各種真實場景產(chǎn)生的數(shù)據(jù)集形用。這些數(shù)據(jù)集并不像...
在 Why Deep Structure 一文中我已經(jīng)說明了 Deep Structure 的表示能力很強(qiáng)就轧,以及相比 Shallow Structure 的優(yōu)勢所在证杭。但“能力...
1、Can shallow network fit any function? 為什么我們需要深度學(xué)習(xí)呢妒御? 所謂深度學(xué)習(xí)解愤,就是用層數(shù)較多的神經(jīng)網(wǎng)絡(luò)進(jìn)行學(xué)習(xí),那么淺的神經(jīng)網(wǎng)絡(luò)有...
XGBoost = Extreme Gradient Boosting乎莉,也就是說送讲,XGBoost 把 Gradient Boosting 做到了極致,具體來說惋啃,這種極致體現(xiàn)在...
Regression Tree 模型相比 Linear Regression 模型有何優(yōu)勢呢哼鬓? Linear Regression 是最經(jīng)典的回歸模型,可用下式表示: 然而 ...
顧名思義边灭,Gradient Boosting = Gradient Descent + Boosting异希。 既然是Boosting,就是在現(xiàn)有模型基礎(chǔ)上進(jìn)行提升存筏,提升的方法就...
透過眼鏡上的雨滴瞄準(zhǔn) 她的口唇輕啟 從未猜到只言片語幸福的時刻 只有屏息的一瞬當(dāng)裙擺從身旁撫過 芳香的風(fēng) 靜止不必回頭 她將走進(jìn)便利店兩塊巧克力 一盒牛奶十五分...
kaggle入門三部曲的尾聲宠互,終于迎來了一個難搞的數(shù)據(jù)集。之前的Titanic用到的特征工程和數(shù)據(jù)清洗技巧放在這里已經(jīng)完全不夠用了椭坚,于是這個比賽的主要目的在于學(xué)習(xí)對數(shù)據(jù)的處理...
手寫數(shù)字識別是非常經(jīng)典的入門級實踐項目了予跌,MNIST則是用來初步檢驗一個圖像分類方法好壞的不二之選數(shù)據(jù)集。之前練習(xí)keras的時候也用CNN跑過正確率90%以上的模型善茎,但在k...
《Wide & Deep Learning for Recommender System》是Google發(fā)表在 DLRS 2016 上的文章券册。Wide&Deep模型的核心思想...