整理一份萬(wàn)字機(jī)器學(xué)習(xí)資料!

本系列主要根據(jù)吳恩達(dá)老師的課程脾歧、李航老師的統(tǒng)計(jì)學(xué)習(xí)方法以及自己平時(shí)的學(xué)習(xí)資料整理甲捏!在本文章中,有些地方寫(xiě)的十分簡(jiǎn)略,不過(guò)詳細(xì)的介紹我都附上了相應(yīng)的博客鏈接,大家可以根據(jù)相應(yīng)的博客鏈接學(xué)習(xí)更詳細(xì)的內(nèi)容贡羔。

本文的目錄先列在這里啦:

1瞧筛、引言

2、線性回歸

3、梯度下降法

3.1 梯度下降法分類
3.2 梯度下降法改進(jìn)

4、邏輯回歸

5、過(guò)擬合和正則化

5.1 過(guò)擬合
5.2 正則化

6猎提、方差vs偏差

6.1 偏差(Bias)
6.2 方差(Variance)

7、支持向量機(jī)SVM

7.1 最大間隔分類器
7.2 超平面求解
7.3 核函數(shù)Kernel
7.4 Outliers
7.5 SVM的損失函數(shù)
7.6 LR和SVM的區(qū)別

8旁蔼、樸素貝葉斯

8.1 貝葉斯定理
8.2 樸素貝葉斯分類

9锨苏、決策樹(shù)方法

9.1 特征選擇
9.2 決策樹(shù)的生成
9.3決策樹(shù)剪枝

10疙教、集成學(xué)習(xí)方法

10.1 Bagging
10.2 Boosting
10.3 Bagging與Boosting的異同
10.4 Stacking

11、總結(jié)一下機(jī)器學(xué)習(xí)中的損失函數(shù)

11.1 0-1損失函數(shù)
11.2 絕對(duì)值損失函數(shù)
11.3 log對(duì)數(shù)損失函數(shù)
11.4 平方損失函數(shù)
11.5 指數(shù)損失函數(shù)
11.6 Hinge損失函數(shù)

1伞租、引言

機(jī)器學(xué)習(xí)是什么贞谓?

Arthur Samuel:在進(jìn)行特定編程的情況下,給予計(jì)算機(jī)學(xué)習(xí)能力的領(lǐng)域葵诈。
Tom Mitchell:一個(gè)程序被認(rèn)為能從經(jīng)驗(yàn)E中學(xué)習(xí)裸弦,解決任務(wù)T,達(dá)到性能度量值P作喘,當(dāng)且僅當(dāng)理疙,有了經(jīng)驗(yàn)E后,經(jīng)過(guò)P評(píng)判泞坦,程序在處理T時(shí)的性能有所提升窖贤。

監(jiān)督學(xué)習(xí)與無(wú)監(jiān)督學(xué)習(xí)

根據(jù)訓(xùn)練數(shù)據(jù)是否有標(biāo)記信息,機(jī)器學(xué)習(xí)任務(wù)大致分為兩大類:監(jiān)督學(xué)習(xí)非監(jiān)督學(xué)習(xí)贰锁,分類和回歸是監(jiān)督學(xué)習(xí)的代表赃梧,而聚類是非監(jiān)督學(xué)習(xí)的代表。

輸入空間李根、特征空間槽奕、輸出空間、假設(shè)空間

輸入空間:在監(jiān)督學(xué)習(xí)中房轿,將輸入所有可能取值的集合稱為輸入空間。
特征空間:每個(gè)具體的輸入是一個(gè)實(shí)例所森,通常由特征向量表示囱持,所有特征向量存在的空間成為特征空間。有時(shí)輸入空間和特征空間為相同的空間焕济,有時(shí)為不同的空間纷妆,需要將實(shí)例從輸入空間映射到輸出空間。
輸出空間:在監(jiān)督學(xué)習(xí)中晴弃,將輸出所有可能取值的集合稱為輸出空間掩幢。
假設(shè)空間:監(jiān)督學(xué)習(xí)的目的在于學(xué)習(xí)一個(gè)由輸入到輸出的映射,這一映射由模型來(lái)表示上鞠。由輸入空間到輸出空間的映射的集合际邻,稱為假設(shè)空間。舉個(gè)簡(jiǎn)單的例子芍阎,在一元線性回歸中世曾,假設(shè)空間即所有的直線y=ax+b組成的集合,我們的目標(biāo)就是找到一條y=a'x+b'轮听,使得損失最小骗露。

生成模型和判別模型

生成模型:生成模型由數(shù)據(jù)學(xué)習(xí)聯(lián)合概率分布P(X,Y),按后求出條件概率分布P(Y|X)血巍,作為預(yù)測(cè)的模型萧锉。之所以被稱為生成方法,是因?yàn)槟P捅硎玖私o定輸入X產(chǎn)生輸出Y的關(guān)系述寡。典型的模型有樸素貝葉斯方法隱馬爾可夫模型的驹暑。
判別模型:判別模型由數(shù)據(jù)直接學(xué)習(xí)決策函數(shù)f(X),或者條件概率分布P(Y|X)。判別方法關(guān)心的是對(duì)給定的輸入X辨赐,應(yīng)該預(yù)測(cè)什么樣的輸出Y优俘。典型的判別模型包括k近鄰算法感知機(jī)掀序,決策樹(shù)帆焕,邏輯回歸支持向量機(jī)等不恭。

2叶雹、線性回歸

模型表示

線性回歸是最簡(jiǎn)單的機(jī)器學(xué)習(xí)模型,其假設(shè)輸入和輸出之間滿足線性關(guān)系换吧,假設(shè)我們想要通過(guò)房屋尺寸來(lái)預(yù)測(cè)房?jī)r(jià)折晦,通過(guò)將收集到的數(shù)據(jù)繪制在二維坐標(biāo)系中,我們總中擬合得到圖中的直線:

以二元線性回歸為例沾瓦,其表達(dá)式如下:

對(duì)具有n個(gè)變量的多元線性回歸問(wèn)題满着,其一般表達(dá)式為:

損失函數(shù)

線性回歸的損失函數(shù)一般是平方損失函數(shù)(上標(biāo)i代表第i個(gè)數(shù)據(jù),下表i代表第i維特征):

有時(shí)候我們可能把這個(gè)式子想的比較想當(dāng)然贯莺,其實(shí)我們可以從極大似然的角度推導(dǎo)出平方損失函數(shù)风喇,這時(shí)我們會(huì)假設(shè)損失服從正態(tài)分布,具體參考文章:
http://www.reibang.com/p/4d562f2c06b8

梯度下降

梯度下降(Gradient Descent)是一個(gè)用來(lái)求函數(shù)最小值的算法缕探,后面會(huì)有一張專門講解梯度下降法及其改進(jìn)算法魂莫,這里只是介紹一個(gè)基本的思想。
梯度下降背后的思想是:開(kāi)始時(shí)我們隨機(jī)選擇一個(gè)參數(shù)的組合爹耗,計(jì)算代價(jià)函數(shù)耙考,然后我們尋找下一個(gè)能讓代價(jià)函數(shù)值下降最多的參數(shù)組合。我們持續(xù)這么做直到找到一個(gè)局部最小值(local minimum)潭兽,因?yàn)槲覀儾](méi)有嘗試完所有的參數(shù)組合倦始,所以不能確定我們得到的局部最小值是否便是全局最小值(global minimum),選擇不同的初始參數(shù)組合讼溺,可能會(huì)找到不同的局部最小值楣号。

具體的做法就是:每一次都同時(shí)讓所有的參數(shù)減去學(xué)習(xí)速率乘以損失函數(shù)的導(dǎo)數(shù)。

其中α是學(xué)習(xí)率(learning rate),它決定了我們沿著能讓代價(jià)函數(shù)下降程度最大的方向向下邁出的步子有多大炫狱。

除學(xué)習(xí)率外藻懒,使用梯度下降法時(shí)需要對(duì)特征進(jìn)行標(biāo)準(zhǔn)化處理,以二元線性回歸為例视译,如果兩維的數(shù)值范圍相差特別大嬉荆,梯度下降算法需要非常多次的迭代才能收斂,解決的方法是嘗試將所有特征的尺度都盡量縮放到-1到1之間:

3酷含、梯度下降法

再進(jìn)一步介紹算法之前鄙早,我們先來(lái)介紹一下梯度下降法的分類及對(duì)其的改進(jìn)。

3.1 梯度下降法分類

梯度下降法可以分為下面三種:

批量梯度下降法(Batch Gradient Descent):批量梯度下降法椅亚,是梯度下降法最常用的形式限番,具體做法也就是在更新參數(shù)時(shí)使用所有的樣本來(lái)進(jìn)行更新。

隨機(jī)梯度下降法(Stochastic Gradient Descent):求梯度時(shí)沒(méi)有用所有的m個(gè)樣本的數(shù)據(jù)呀舔,而是僅僅選取一個(gè)樣本j來(lái)求梯度弥虐。

小批量梯度下降法(Mini-batch Gradient Descent):小批量梯度下降法是批量梯度下降法和隨機(jī)梯度下降法的折衷,也就是對(duì)于m個(gè)樣本媚赖,我們采用x個(gè)樣子來(lái)迭代霜瘪。

三者到達(dá)極小值的路徑大致可以表示為下圖:

其中,藍(lán)色為批量梯度下降法惧磺,綠色為小批量梯度下降法颖对,紫色為隨機(jī)梯度下降法。

3.2 梯度下降法改進(jìn)

指數(shù)加權(quán)平均數(shù)

在講解一些常見(jiàn)的梯度下降改進(jìn)算法之前磨隘,我們先來(lái)看一下指數(shù)加權(quán)平均數(shù)(Exponentially weighted averages):指數(shù)加權(quán)平均數(shù)是對(duì)趨勢(shì)的一種刻畫(huà)缤底,計(jì)算公式如下:

在上式中,vt是t時(shí)刻的指數(shù)加權(quán)平均值琳拭,v0 = 0训堆,θt是第t時(shí)刻的實(shí)際值。β是一個(gè)參數(shù)白嘁。簡(jiǎn)單的理解,β代表了vt刻畫(huà)的是多少天的平均值膘流,如果β太小絮缅,那么vt越接近于θt,如果β很大呼股,那么vt就能代表一個(gè)更長(zhǎng)時(shí)間的平均值耕魄。

大體上,vt大概是1/(1-β)天的平均值彭谁,即當(dāng)β=0.1時(shí)吸奴,我們可以認(rèn)為vt代表了近10天的平均值。β=0.02時(shí),我們可以認(rèn)為vt代表了近50天的平均值则奥,如下圖所示考润,紅色表示的是β=0.1時(shí)vt的變化,綠色表示的是β=0.02時(shí)vt的變化:

在指數(shù)加權(quán)平均的過(guò)程中读处,還有一個(gè)很重要的概念糊治,叫做偏差修正(Bias correction),可以看到,如果v0=0罚舱,那么v1 = (1-β)*θ1井辜,特別地,如果β=0.9管闷,那么
v1 = 0.1 * θ1粥脚,這樣導(dǎo)致v1會(huì)特別小,需要進(jìn)行一定程度的修正包个, 具體的修正方法是對(duì)vt除以( 1-β^t)刷允,當(dāng)t特別小的時(shí)候,可以起到較為明顯的修正效果赃蛛,但是當(dāng)t變大時(shí)恃锉,分母接近于1,基本沒(méi)有進(jìn)行修正呕臂。

在機(jī)器學(xué)習(xí)中破托,在計(jì)算指數(shù)加權(quán)平均數(shù)的大部分時(shí)候,大家不在乎執(zhí)行偏差修正歧蒋,因?yàn)榇蟛糠秩藢幵赴具^(guò)初始時(shí)期土砂,拿到具有偏差的估測(cè),然后繼續(xù)計(jì)算下去谜洽。如果你關(guān)心初始時(shí)期的偏差萝映,在剛開(kāi)始計(jì)算指數(shù)加權(quán)移動(dòng)平均數(shù)的時(shí)需要進(jìn)行偏差修正。

動(dòng)量梯度下降法(Momentum)

動(dòng)量梯度下降法基本的想法就是計(jì)算梯度的指數(shù)加權(quán)平均數(shù)阐虚,并利用該梯度 更新你的權(quán)重序臂。假設(shè)我們使用梯度下降法更新參數(shù)的路徑如下圖中藍(lán)色的線所示:

上圖中的路徑上下波動(dòng)減慢了梯度下降法的速度,如果我們用更大的學(xué)習(xí)率实束,可能導(dǎo)致這種波動(dòng)進(jìn)一步加大奥秆,變成圖中的紫色的線。因此咸灿,你希望在縱軸上學(xué)習(xí)慢一點(diǎn)构订,消除這種上下的擺動(dòng),而在橫軸上避矢,你希望快速?gòu)淖笙蛴乙苿?dòng)悼瘾,移動(dòng)到最小值處囊榜。

我們之前介紹的指數(shù)加權(quán)平均數(shù),可以反映近一段時(shí)間的趨勢(shì)亥宿,在縱軸上的上下波動(dòng)卸勺,使得平均值接近于0,而在橫軸方向的平均值仍然較大箩绍。利用這種思想孔庭,Momentum的計(jì)算過(guò)程如下:

RMSprop(root mean square prop)

還是用上面的例子,我們假設(shè)縱軸代表參數(shù)b材蛛,橫軸代表參數(shù)W:

所以圆到,你想減緩??方向的學(xué)習(xí),即縱軸方向卑吭,同時(shí)加快芽淡,至少不是減緩橫軸方向的學(xué)習(xí), RMSprop 算法可以實(shí)現(xiàn)這一點(diǎn)豆赏,將趨勢(shì)變成下面的綠色的線:

我們這里仍然運(yùn)用指數(shù)加權(quán)平均數(shù)挣菲,但并不是dW的平均數(shù),而是(dW)^2的平均數(shù)掷邦,即:

在參數(shù)更新時(shí):

由于db較大白胀,dw較小,因此SdW較小抚岗,Sdb較大或杠,所以可以減小縱軸上的擺動(dòng),加速橫軸上的學(xué)習(xí)速度宣蔚。

Adam(Adaptive Moment Estimation)

Adam 優(yōu)化算法基本上就是將 Momentum 和 RMSprop 結(jié)合在一起向抢,它使用的是經(jīng)過(guò)偏差修正后的指數(shù)加權(quán)平均數(shù):

最終的參數(shù)更新變?yōu)椋?/p>

Adam 算法結(jié)合了 Momentum 和 RMSprop 梯度下降法,并且是一種極其常用的學(xué)習(xí)算法胚委,被證明能有效適用于不同神經(jīng)網(wǎng)絡(luò)挟鸠,適用于廣泛的結(jié)構(gòu)。

4亩冬、邏輯回歸

基本原理

邏輯回歸被應(yīng)用于分類問(wèn)題艘希,通過(guò)sigmoid函數(shù)對(duì)線性回歸的預(yù)測(cè)值進(jìn)行轉(zhuǎn)換,使其在[0,1]的范圍:

其中硅急,g被稱為sigmoid函數(shù)枢冤,其形式如下:

損失函數(shù)

邏輯回歸使用的損失函數(shù)并非平方損失函數(shù),而是如下的形式:

主要的原因是铜秆,平方損失函數(shù)對(duì)于邏輯回歸來(lái)說(shuō)是非凸的,使用梯度下降法可能收斂到局部極小值讶迁,而上面的損失函數(shù)是凸函數(shù)连茧,可以得到全局最小值:

過(guò)程推導(dǎo)

邏輯回歸的推導(dǎo)是面試中經(jīng)常會(huì)問(wèn)到的問(wèn)題核蘸,通過(guò)梯度下降法進(jìn)行推導(dǎo)時(shí),我們用到的主要性質(zhì)時(shí)sigmoid函數(shù)的導(dǎo)數(shù)性質(zhì):g'(x) = g(x)(1-g(x))啸驯,一定要牢記于心客扎。下圖是推導(dǎo)過(guò)程:

可以記一下結(jié)論,到時(shí)候用于檢驗(yàn)自己推導(dǎo)的對(duì)不對(duì)罚斗。對(duì)第j個(gè)參數(shù)求梯度徙鱼,結(jié)果為:

邏輯回歸為什么會(huì)選擇sigmoid函數(shù)呢,總結(jié)有以下幾方面吧:
1针姿、函數(shù)連續(xù)袱吆,單調(diào)遞增
2、求導(dǎo)方便
3距淫、輸出范圍為(0,1)绞绒,可以用作輸出層,結(jié)果可以表示概率
4榕暇、抑制兩頭蓬衡,對(duì)中間細(xì)微變化敏感,對(duì)分類有利彤枢。

解決多分類問(wèn)題

邏輯回歸還可以用于多分類狰晚,我們常用的策略被稱為one vs all

假設(shè)我們有三個(gè)類缴啡,如下圖所示:

采用one vs all策略時(shí)壁晒,有多少類別,我們就要訓(xùn)練幾個(gè)分類器盟猖。每次選擇一個(gè)類別作為正例讨衣,其他所有類別的樣本作為負(fù)例,訓(xùn)練一個(gè)分類器:

最后式镐,在我們需要做預(yù)測(cè)時(shí)反镇,我們將所有的分類器都運(yùn)行一遍,然后對(duì)每一個(gè)輸入變量娘汞,都選擇最高可能性的輸出變量歹茶,即:

5、過(guò)擬合和正則化

5.1 過(guò)擬合

機(jī)器學(xué)習(xí)的目的是使學(xué)到的模型不僅對(duì)已知的數(shù)據(jù)而且對(duì)未知的數(shù)據(jù)都能有很好的預(yù)測(cè)能力你弦。當(dāng)損失函數(shù)給定時(shí)惊豺,模型在訓(xùn)練集上的損失被稱為訓(xùn)練誤差,在測(cè)試集上的損失被稱為測(cè)試誤差禽作。

如果模型不能很好的適應(yīng)訓(xùn)練集尸昧,會(huì)造成欠擬合(underfit)。相反旷偿,如果模型過(guò)于強(qiáng)調(diào)擬合原始數(shù)據(jù)烹俗,會(huì)導(dǎo)致對(duì)未知數(shù)據(jù)擬合很差爆侣,這種情況被稱為過(guò)擬合(overfit)

看下面的例子:

隨著模型的復(fù)雜度的提升幢妄,訓(xùn)練誤差和測(cè)試誤差往往呈現(xiàn)下面的趨勢(shì):

5.2 正則化

正則化的目的是對(duì)過(guò)大的參數(shù)進(jìn)行一定的懲罰兔仰,降低其對(duì)模型的影響,使我們能夠得到一個(gè)較為簡(jiǎn)單的模型蕉鸳。這符合奧卡姆剃刀的原理乎赴,即在所有可能選擇的模型中,能夠很好地解釋已知數(shù)據(jù)并且十分簡(jiǎn)單的才是最好的模型潮尝。

我們常用的正則化有L1正則化L2正則化榕吼。

L1正則化

L1正則化即在損失函數(shù)的基礎(chǔ)上增加參數(shù)的1范數(shù):

我們常說(shuō),L1正則化具有參數(shù)選擇的作用衍锚,直觀從圖像理解友题,如下:

當(dāng)然,也可以通過(guò)數(shù)學(xué)推導(dǎo)得到結(jié)論戴质,具體參考文章:http://www.reibang.com/p/2f60e672d4f0

從貝葉斯角度看度宦,當(dāng)參數(shù)的先驗(yàn)概率符合拉普拉斯分布時(shí),最大化后驗(yàn)概率可以得到添加1范數(shù)的損失函數(shù)告匠。

L2正則化

L2正則化即在損失函數(shù)的基礎(chǔ)上增加參數(shù)的2范數(shù):

L2正則化具有權(quán)重衰減的功能戈抄,圖像如下:

從貝葉斯角度看,當(dāng)參數(shù)的先驗(yàn)概率符合高斯分布時(shí)后专,最大化后驗(yàn)概率可以得到添加2范數(shù)的損失函數(shù)划鸽。

從貝葉斯角度看L1正則化和L2正則化,參考文章:http://www.reibang.com/p/4d562f2c06b8

6戚哎、方差vs偏差

當(dāng)你運(yùn)行一個(gè)學(xué)習(xí)算法時(shí)裸诽,如果這個(gè)算法的表現(xiàn)不理想,那么多半是出現(xiàn)兩種情況:要么是偏差比較大型凳,要么是方差比較大丈冬。換句話說(shuō),出現(xiàn)的情況要么是欠擬合甘畅,要么是過(guò)擬合問(wèn)題埂蕊。那么這兩種情況,哪個(gè)和偏差有關(guān)疏唾,哪個(gè)和方差有關(guān)蓄氧,或者是不是和兩個(gè)都有關(guān)?

6.1 偏差(Bias)

偏差基本對(duì)應(yīng)于欠擬合問(wèn)題槐脏,其表現(xiàn)是模型在訓(xùn)練集和驗(yàn)證集上的誤差都比較大喉童,隨著數(shù)據(jù)集的增加,模型在訓(xùn)練集和驗(yàn)證集上的誤差表現(xiàn)如下:

在面臨高偏差時(shí)顿天,我們應(yīng)該嘗試以下的方法:嘗試獲得更多的特征泄朴,嘗試增加多項(xiàng)式特征重抖,嘗試減少正則化程度λ

6.2 方差(Variance)

方差問(wèn)題對(duì)應(yīng)于過(guò)擬合問(wèn)題祖灰,其表現(xiàn)是模型在訓(xùn)練集上誤差比較小,而在驗(yàn)證集上的誤差遠(yuǎn)遠(yuǎn)高于訓(xùn)練集畔规。另一個(gè)解釋方差問(wèn)題的角度是局扶,對(duì)于同一個(gè)形式的模型(比如都是四次回歸),針對(duì)不同的訓(xùn)練集叁扫,其擬合得到的參數(shù)相差很大三妈。隨著數(shù)據(jù)集的增加,模型在訓(xùn)練集和驗(yàn)證集上的誤差表現(xiàn)如下:

在面臨高偏差時(shí)莫绣,我們應(yīng)該采取下面的方法:獲得更多的訓(xùn)練實(shí)例畴蒲,嘗試減少特征的數(shù)量,嘗試增加正則化程度λ

7对室、支持向量機(jī)SVM

關(guān)于SVM的知識(shí)模燥,可以參照pluskid的博客,寫(xiě)的真心贊掩宜!

博客鏈接:http://blog.pluskid.org/?page_id=683

7.1 最大間隔分類器

SVM的目標(biāo)是找到一個(gè)最大間隔的分類器蔫骂,使得兩類數(shù)據(jù)點(diǎn)到超平面的最小距離最大:

恰好在邊界上的點(diǎn)被稱為支撐向量Support Vector

其目標(biāo)函數(shù)為:

其中牺汤,約束條件在支撐向量處取得等號(hào)辽旋,非支撐向量取大于號(hào)耿焊。

7.2 超平面求解

利用拉格朗日乘子法忧勿,上面的目標(biāo)函數(shù)和約束條件可以寫(xiě)為一個(gè)式子:

如果我們令:

我們分析一下上式,在a>=0的情況下弹沽,對(duì)于支撐向量追迟,后面括號(hào)中的一項(xiàng)為0溶其,因此對(duì)應(yīng)的a可以取得大于0的值,而對(duì)于非支撐向量怔匣,后面括號(hào)中的一項(xiàng)大于0握联,此時(shí)對(duì)應(yīng)的a必須等于0。因此每瞒,在所有約束條件都滿足的情況下金闽,我們可以得到θ(w)=1/2 * ||w||^2,因此原問(wèn)題可以表示成:

根據(jù)KKT條件剿骨,我們可以將上面的式子轉(zhuǎn)換為對(duì)偶形式(關(guān)于KKT條件代芜,參考博客:http://blog.pluskid.org/?p=702):

因此,我們首先對(duì)w和b進(jìn)行求導(dǎo)得到:

然后求解a浓利,這里用到的是SMO算法挤庇,我們不再詳細(xì)介紹钞速。

求解得到w和b之后,我們可以得到超平面方程為:

因此對(duì)于新點(diǎn) x 的預(yù)測(cè)嫡秕,只需要計(jì)算它與訓(xùn)練數(shù)據(jù)點(diǎn)的內(nèi)積即可渴语。更進(jìn)一步,實(shí)際上只要針對(duì)少量的“支持向量”而不是所有的訓(xùn)練數(shù)據(jù)昆咽,因?yàn)槲覀兦懊娼榻B過(guò)驾凶,對(duì)于非支撐向量,其對(duì)應(yīng)的a是等于0的掷酗。

7.3 核函數(shù)Kernel

前面介紹的是線性可分的情況调违,然而還有線性不可分以及非線性的情況。這里我們先來(lái)介紹非線性的情況泻轰,我們會(huì)介紹到一種核函數(shù)的方法技肩。

如圖中的數(shù)據(jù),是一種典型的非線性情況浮声,我們希望找到一個(gè)圓來(lái)區(qū)分兩類數(shù)據(jù):

因此超平面是類似下面的形式:

因此虚婿,我們可以將低維空間中的數(shù)據(jù)映射到高維空間中去,進(jìn)而得到一個(gè)最大間隔的超平面阿蝶。一般的雳锋,如果我們用 ?(?)表示這個(gè)映射,則超平面變?yōu)椋?/p>

但上面的方法會(huì)面臨維數(shù)爆炸的問(wèn)題羡洁,如果二維空間做映射玷过,選擇的新空間是原始空間的所有一階和二階的組合,得到了五個(gè)維度筑煮;如果原始空間是三維辛蚊,那么我們會(huì)得到 19 維的新空間這個(gè)數(shù)目是呈爆炸性增長(zhǎng)的。所以就需要核函數(shù)方法出馬了真仲。

使用核函數(shù)方法袋马,可以在低維空間中快速計(jì)算兩個(gè)向量在映射過(guò)后的空間中的內(nèi)積,例如在二維空間中使用多項(xiàng)式核函數(shù)秸应,可以快速得到五維空間中映射結(jié)果的內(nèi)積(形式相同):

使用核函數(shù)虑凛,我們現(xiàn)在的分類超平面變?yōu)椋?/p>

常見(jiàn)的核函數(shù)有多項(xiàng)式核高斯核软啼,線性核

7.4 Outliers

對(duì)于這種偏離正常位置很遠(yuǎn)的數(shù)據(jù)點(diǎn)桑谍,我們稱之為outlier ,在我們?cè)瓉?lái)的 SVM 模型里祸挪,outlier 的存在有可能造成很大的影響:

用黑圈圈起來(lái)的那個(gè)藍(lán)點(diǎn)是一個(gè)outlier 锣披,它偏離了自己原本所應(yīng)該在的那個(gè)半空間,如果直接忽略掉它的話,原來(lái)的分隔超平面還是挺好的雹仿,但是由于這個(gè) outlier 的出現(xiàn)增热,導(dǎo)致分隔超平面不得不被擠歪了,變成途中黑色虛線所示(這只是一個(gè)示意圖胧辽,并沒(méi)有嚴(yán)格計(jì)算精確坐標(biāo))峻仇,同時(shí)分類間隔也相應(yīng)變小了。當(dāng)然票顾,更嚴(yán)重的情況是础浮,如果這個(gè) outlier 再往右上移動(dòng)一些距離的話,我們將無(wú)法構(gòu)造出能將數(shù)據(jù)分開(kāi)的超平面來(lái)奠骄。

為了處理這種情況,SVM 允許數(shù)據(jù)點(diǎn)在一定程度上偏離一下超平面番刊。例如上圖中含鳞,黑色實(shí)線所對(duì)應(yīng)的距離,就是該 outlier 偏離的距離芹务,如果把它移動(dòng)回來(lái)蝉绷,就剛好落在原來(lái)的超平面上,而不會(huì)使得超平面發(fā)生變形了枣抱。具體來(lái)說(shuō)熔吗,原來(lái)的約束條件變?yōu)椋?/p>

而目標(biāo)函數(shù)變?yōu)椋?/p>

其中 C 是一個(gè)參數(shù),我們可以認(rèn)為是對(duì)outlier的容忍程度佳晶,如果C越大桅狠,我們對(duì)outliers的容忍程度越小,反之越大轿秧。

完整的形式如下:

7.5 SVM的損失函數(shù)

SVM的損失函數(shù)被稱為合頁(yè)損失函數(shù)中跌,如下圖:

當(dāng)樣本被正確分類且函數(shù)間隔大于1時(shí),合頁(yè)損失才是0菇篡,否則漩符,就會(huì)產(chǎn)生一定的損失。

7.6 LR和SVM的區(qū)別

總結(jié)了幾點(diǎn)LR與SVM的區(qū)別驱还,和大家分享:
1嗜暴、LR可以輸出屬于每一類別的概率,SVM則不行
2议蟆、LR是基于概率最大化推導(dǎo)的闷沥,而SVM是基于最大化幾何間隔推導(dǎo)的
3、SVM的決策超平面只有少量的支撐向量決定咪鲜,而LR所有的樣本都參與決策面的更新狐赡,所以SVM對(duì)異常數(shù)據(jù)并不敏感,LR更加敏感
4、SVM依賴數(shù)據(jù)表達(dá)的距離測(cè)度颖侄,所以需要先對(duì)數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理鸟雏,但是LR不需要。

8览祖、樸素貝葉斯

樸素貝葉斯是基于貝葉斯定理與特征條件獨(dú)立假設(shè)的分類方法孝鹊。

8.1 貝葉斯定理

貝葉斯定理是關(guān)于隨機(jī)事件A和B的條件概率的定理,形式如下:

8.2 樸素貝葉斯分類

樸素貝葉斯分類的基本思想是:給出待分類項(xiàng)展蒂,求解在此項(xiàng)出現(xiàn)的條件下其他各個(gè)類別的出現(xiàn)的概率又活,哪個(gè)概率較大就認(rèn)為待分類項(xiàng)屬于哪個(gè)類別,用貝葉斯定理表示為(這里的上標(biāo)表示一維特征):

分母對(duì)于所有的c都是相同的锰悼,因此可以省去柳骄,故有:

我們要做的就是統(tǒng)計(jì)對(duì)每一個(gè)類別來(lái)說(shuō),每一維特征每個(gè)特征出現(xiàn)的頻率箕般。頻率有可能出現(xiàn)0的情況耐薯,我們需要進(jìn)行*拉普拉斯平滑操作。

拉普拉斯平滑:就是對(duì)每類別下所有劃分的計(jì)數(shù)加1丝里,這樣如果訓(xùn)練樣本集數(shù)量充分大時(shí)曲初,并不會(huì)對(duì)結(jié)果產(chǎn)生影響,并且解決了頻率為0的尷尬局面杯聚。

9臼婆、決策樹(shù)方法

決策樹(shù)(Decision Tree)是數(shù)據(jù)挖掘中一種基本的分類和回歸方法,它呈樹(shù)形結(jié)構(gòu)幌绍,在分類問(wèn)題中颁褂,表示基于特征對(duì)實(shí)例進(jìn)行分類的過(guò)程,可以認(rèn)為是if?then規(guī)則的集合纷捞,也可認(rèn)為是定義在特征空間與類空間上的條件概率分布痢虹。下圖是一個(gè)簡(jiǎn)單的決策樹(shù)示例:

決策樹(shù)模型的主要優(yōu)點(diǎn)是模型具有可讀性,分類速度快主儡。在學(xué)習(xí)時(shí)奖唯,利用訓(xùn)練數(shù)據(jù),根據(jù)損失函數(shù)最小化原則建立決策樹(shù)模型糜值;而在預(yù)測(cè)時(shí)丰捷,對(duì)新的數(shù)據(jù),利用決策樹(shù)模型進(jìn)行分類寂汇。主要的決策樹(shù)算法有ID3算法病往、C4.5算法和CART算法。

一個(gè)決策樹(shù)的學(xué)習(xí)過(guò)程包括三個(gè)步驟:特征選擇骄瓣、決策樹(shù)的生成以及決策樹(shù)的修剪停巷。

9.1 特征選擇

:在信息論與概率統(tǒng)計(jì)中,熵表示隨機(jī)變量不確定性的度量。設(shè)X是一個(gè)取有限個(gè)值得離散隨機(jī)變量畔勤,其概率分布為:

則隨機(jī)變量X的熵定義為:

條件熵H(Y|X)表示在已知隨機(jī)變量X的條件下隨機(jī)變量Y的不確定性:

信息增益

信息增益表示得知特征X的信息而使得類Y的信息的不確定性減少的程度蕾各。信息增益大的特征具有更強(qiáng)的分類能力。特征A對(duì)訓(xùn)練數(shù)據(jù)集D的信息增益g(D,A)庆揪,定義為集合D的經(jīng)驗(yàn)熵H(D)與特征A給定條件下D的經(jīng)驗(yàn)條件熵H(D|A)之差式曲,即:

一般地,熵H(Y)與條件熵H(Y|X)之差稱為互信息缸榛。決策樹(shù)學(xué)習(xí)中的信息增益等價(jià)于訓(xùn)練數(shù)據(jù)集中類與特征的互信息吝羞。

設(shè)訓(xùn)練數(shù)據(jù)集為D,|D|表示其樣本容量内颗,即樣本個(gè)數(shù)钧排。設(shè)有K
個(gè)類Ck,k=1,2,???,K,根據(jù)特征A的取值將D劃分為n個(gè)子集D1,D2,???,Dn,記子集Di中屬于類Ck的樣本的集合為Dik均澳。
則信息增益的計(jì)算過(guò)程如下:

信息增益比

以信息增益作為劃分訓(xùn)練數(shù)據(jù)集的特征卖氨,存在偏向于選擇取值較多的特征的問(wèn)題。使用信息增益比可以對(duì)這一問(wèn)題進(jìn)行校正负懦。
信息增益比表示特征A對(duì)訓(xùn)練數(shù)據(jù)集D的信息增益比。gR(D,A)定義為其信息增益g(D,A)與訓(xùn)練數(shù)據(jù)集D關(guān)于特征A的值的熵HA(D)之比柏腻,即:

基尼系數(shù)
分類問(wèn)題中纸厉,假設(shè)有K個(gè)類,樣本點(diǎn)屬于第k類的概率為pk五嫂,則概率分布的基尼系數(shù)定義為:

若樣本集合D根據(jù)特征A是否取某一可能值a被分割成D1和D2
兩部分颗品,即:

則在特征A的條件下,集合D的基尼指數(shù)定義為:

基尼系數(shù)Gini(D)表示集合D的不確定性沃缘,表示經(jīng)A=a分割后集合D的不確定性躯枢。基尼系數(shù)越大槐臀,樣本集合的不確定性越大锄蹂,與熵類似。
從下圖可以看出基尼指數(shù)和熵之半的曲線很接近水慨,都可以近似地代表分類誤差率得糜。

9.2 決策樹(shù)的生成

ID3算法
ID3算法的核心是在決策樹(shù)各個(gè)結(jié)點(diǎn)上應(yīng)用信息增益準(zhǔn)則選擇特征,遞歸地建構(gòu)決策樹(shù)晰洒。

具體的算法步驟如下圖:

C4.5
與ID3算法相似朝抖,C4.5算法對(duì)ID3算法進(jìn)行了改進(jìn),C4.5在生成的過(guò)程中谍珊,用信息增益比來(lái)選擇特征

CART
分類樹(shù)與回歸樹(shù)(classification and regression tree治宣,CART)模型(Breiman)既可用于分類也可用于回歸。

對(duì)分類樹(shù)用基尼系數(shù)(Gini index)最小化準(zhǔn)則,進(jìn)行特征選擇侮邀,生成二叉樹(shù)坏怪,其具體步驟如下:

接下來(lái)具體說(shuō)說(shuō)回歸樹(shù)是如何進(jìn)行特征選擇生成二叉回歸樹(shù)的。

9.3決策樹(shù)剪枝

剪枝
決策樹(shù)的過(guò)擬合指的是學(xué)習(xí)時(shí)過(guò)多地考慮如何提高對(duì)訓(xùn)練數(shù)據(jù)的正確分類豌拙,從而構(gòu)建出過(guò)于復(fù)雜的決策樹(shù)陕悬。解決過(guò)擬合的辦法是考慮決策樹(shù)的復(fù)雜度,對(duì)已生成的決策樹(shù)進(jìn)行簡(jiǎn)化按傅,即剪枝(從已生成的樹(shù)上裁剪調(diào)一些子樹(shù)或葉結(jié)點(diǎn)捉超,并將其根結(jié)點(diǎn)或父結(jié)點(diǎn)作為新的葉結(jié)點(diǎn),從而簡(jiǎn)化分類樹(shù)模型)唯绍。
下圖展示了決策樹(shù)剪枝的過(guò)程:

10拼岳、集成學(xué)習(xí)方法

集成學(xué)習(xí)的主要思想是利用一定的手段學(xué)習(xí)出多個(gè)分類器,而且這多個(gè)分類器要求是弱分類器况芒,然后將多個(gè)分類器進(jìn)行組合公共預(yù)測(cè)惜纸。核心思想就是如何訓(xùn)練處多個(gè)弱分類器以及如何將這些弱分類器進(jìn)行組合。關(guān)于集成學(xué)習(xí)绝骚,大致可以分為三類:Bagging耐版、BoostingStacking

本章我們只介紹集成學(xué)習(xí)方法的基本思想压汪,而具體的實(shí)現(xiàn)方法大家可以根據(jù)鏈接自行學(xué)習(xí)粪牲。

10.1 Bagging

Bagging即套袋法,其算法過(guò)程如下:

1止剖、從原始樣本集中抽取訓(xùn)練集.每輪從原始樣本集中使用Bootstraping的方法抽取n個(gè)訓(xùn)練樣本(在訓(xùn)練集中腺阳,有些樣本可能被多次抽取到,而有些樣本可能一次都沒(méi)有被抽中).共進(jìn)行k輪抽取穿香,得到k個(gè)訓(xùn)練集.(k個(gè)訓(xùn)練集相互獨(dú)立)
2亭引、每次使用一個(gè)訓(xùn)練集得到一個(gè)模型,k個(gè)訓(xùn)練集共得到k個(gè)模型.(注:根據(jù)具體問(wèn)題采用不同的分類或回歸方法皮获,如決策樹(shù)焙蚓、神經(jīng)網(wǎng)絡(luò)等)
3、對(duì)分類問(wèn)題:將上步得到的k個(gè)模型采用投票的方式得到分類結(jié)果魔市;對(duì)回歸問(wèn)題主届,計(jì)算上述模型的均值作為最后的結(jié)果.

我們常見(jiàn)的Bagging算法是隨機(jī)森林算法,關(guān)于隨機(jī)森林算法的細(xì)節(jié)待德,可以參考博客:http://www.reibang.com/p/8f99592658f2

10.2 Boosting

Boosting是一族可將弱學(xué)習(xí)器提升為強(qiáng)學(xué)習(xí)器的算法君丁。關(guān)于Boosting的兩個(gè)核心問(wèn)題:
1、在每一輪如何改變訓(xùn)練數(shù)據(jù)的權(quán)值或概率分布将宪?
通過(guò)提高那些在前一輪被弱分類器分錯(cuò)樣例的權(quán)值绘闷,減小前一輪分對(duì)樣本的權(quán)值橡庞,而誤分的樣本在后續(xù)受到更多的關(guān)注.
2、通過(guò)什么方式來(lái)組合弱分類器印蔗?
通過(guò)加法模型將弱分類器進(jìn)行線性組合扒最,比如AdaBoost通過(guò)加權(quán)多數(shù)表決的方式,即增大錯(cuò)誤率小的分類器的權(quán)值华嘹,同時(shí)減小錯(cuò)誤率較大的分類器的權(quán)值吧趣。而提升樹(shù)通過(guò)擬合殘差的方式逐步減小殘差,將每一步生成的模型疊加得到最終模型耙厚。

我們常見(jiàn)的Boosting算法有AdaBoost强挫,梯度提升決策樹(shù)GBDTXgBoost以及LightGBM薛躬。大家可以根據(jù)下面的參考資料進(jìn)行學(xué)習(xí):

AdaBoosthttp://www.reibang.com/p/f2017cc696e6
GBDThttp://www.reibang.com/p/c32af083be5b
Xgboost:原論文:https://arxiv.org/pdf/1603.02754v1.pdf
博客:https://blog.csdn.net/github_38414650/article/details/76061893
LightGBM:LightGBM 中文文檔:http://lightgbm.apachecn.org/cn/latest/index.html

10.3 Bagging與Boosting的異同

總結(jié)了以下四點(diǎn)不同:

樣本選擇
Bagging:訓(xùn)練集是在原始集中有放回選取的俯渤,從原始集中選出的各輪訓(xùn)練集之間是獨(dú)立的.
Boosting:每一輪的訓(xùn)練集不變,只是訓(xùn)練集中每個(gè)樣例在分類器中的權(quán)重發(fā)生變化.而權(quán)值是根據(jù)上一輪的分類結(jié)果進(jìn)行調(diào)整.

樣例權(quán)重
Bagging:使用均勻取樣型宝,每個(gè)樣例的權(quán)重相等
Boosting:根據(jù)錯(cuò)誤率不斷調(diào)整樣例的權(quán)值八匠,錯(cuò)誤率越大則權(quán)重越大.

預(yù)測(cè)函數(shù)
Bagging:所有預(yù)測(cè)函數(shù)的權(quán)重相等.
Boosting:每個(gè)弱分類器都有相應(yīng)的權(quán)重,對(duì)于分類誤差小的分類器會(huì)有更大的權(quán)重.

并行計(jì)算
Bagging:各個(gè)預(yù)測(cè)函數(shù)可以并行生成
Boosting:各個(gè)預(yù)測(cè)函數(shù)只能順序生成趴酣,因?yàn)楹笠粋€(gè)模型參數(shù)需要前一輪模型的結(jié)果.

10.4 Stacking

stacking 就是當(dāng)用初始訓(xùn)練數(shù)據(jù)學(xué)習(xí)出若干個(gè)基學(xué)習(xí)器后梨树,將這幾個(gè)學(xué)習(xí)器的預(yù)測(cè)結(jié)果作為新的訓(xùn)練集,來(lái)學(xué)習(xí)一個(gè)新的學(xué)習(xí)器岖寞。

具體的原理以及python的實(shí)現(xiàn)例子可以參考文章:http://www.reibang.com/p/3d2bd58908d0

11劝萤、總結(jié)一下機(jī)器學(xué)習(xí)中的損失函數(shù)

11.1 0-1損失函數(shù)

0-1損失是指,預(yù)測(cè)值和目標(biāo)值不相等為1慎璧,否則為0:

11.2 絕對(duì)值損失函數(shù)

絕對(duì)值損失函數(shù)為:

11.3 log對(duì)數(shù)損失函數(shù)

邏輯回歸的損失函數(shù)就是對(duì)數(shù)損失函數(shù),log損失函數(shù)的標(biāo)準(zhǔn)形式:

11.4 平方損失函數(shù)

回歸問(wèn)題中經(jīng)常使用平方損失函數(shù):

11.5 指數(shù)損失函數(shù)

AdaBoost就是一指數(shù)損失函數(shù)為損失函數(shù)的跨释。 指數(shù)損失函數(shù)的標(biāo)準(zhǔn)形式:

11.6 Hinge損失函數(shù)

SVM中使用的是Hinge損失函數(shù):

參考資料:

1胸私、線性回歸原理和實(shí)現(xiàn)基本認(rèn)識(shí):https://blog.csdn.net/lisi1129/article/details/68925799
2、從貝葉斯角度看L1及L2正則化:
http://www.reibang.com/p/4d562f2c06b8
3鳖谈、梯度下降(Gradient Descent)小結(jié):https://www.cnblogs.com/pinard/p/5970503.html
4岁疼、L1正則化及推導(dǎo):http://www.reibang.com/p/2f60e672d4f0
5、支持向量機(jī)系列:http://blog.pluskid.org/?page_id=683
6缆娃、合頁(yè)損失函數(shù)的理解:https://blog.csdn.net/lz_peter/article/details/79614556
7捷绒、李航統(tǒng)計(jì)學(xué)習(xí)方法——算法3樸素貝葉斯法:https://www.cnblogs.com/bethansy/p/7435740.html
8、機(jī)器學(xué)習(xí)-決策樹(shù):http://www.reibang.com/p/8c4a3ef74589
9贯要、集成學(xué)習(xí)系列(七)-Stacking原理及Python實(shí)現(xiàn):http://www.reibang.com/p/3d2bd58908d0
10暖侨、集成學(xué)習(xí)—boosting和bagging異同https://www.cnblogs.com/dudumiaomiao/p/6361777.html
11、集成學(xué)習(xí)系列(一)-隨機(jī)森林算法:http://www.reibang.com/p/8f99592658f2
12崇渗、集成學(xué)習(xí)系列(二)-AdaBoost算法原理:
http://www.reibang.com/p/f2017cc696e6
13字逗、集成學(xué)習(xí)系列(五)-GBDT(梯度提升決策樹(shù)):
http://www.reibang.com/p/c32af083be5b
14京郑、Xgboost論文:https://arxiv.org/pdf/1603.02754v1.pdf
15、通俗葫掉、有邏輯的寫(xiě)一篇說(shuō)下Xgboost的原理:https://blog.csdn.net/github_38414650/article/details/76061893
16些举、LightGBM 中文文檔:http://lightgbm.apachecn.org/cn/latest/index.html
17、機(jī)器學(xué)習(xí)總結(jié)(一):常見(jiàn)的損失函數(shù)
https://blog.csdn.net/weixin_37933986/article/details/68488339

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末俭厚,一起剝皮案震驚了整個(gè)濱河市户魏,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌挪挤,老刑警劉巖叼丑,帶你破解...
    沈念sama閱讀 216,324評(píng)論 6 498
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異电禀,居然都是意外死亡幢码,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,356評(píng)論 3 392
  • 文/潘曉璐 我一進(jìn)店門尖飞,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)症副,“玉大人,你說(shuō)我怎么就攤上這事政基≌晗常” “怎么了?”我有些...
    開(kāi)封第一講書(shū)人閱讀 162,328評(píng)論 0 353
  • 文/不壞的土叔 我叫張陵沮明,是天一觀的道長(zhǎng)辕坝。 經(jīng)常有香客問(wèn)我,道長(zhǎng)荐健,這世上最難降的妖魔是什么酱畅? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 58,147評(píng)論 1 292
  • 正文 為了忘掉前任,我火速辦了婚禮江场,結(jié)果婚禮上纺酸,老公的妹妹穿的比我還像新娘。我一直安慰自己址否,他們只是感情好餐蔬,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,160評(píng)論 6 388
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著佑附,像睡著了一般樊诺。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上音同,一...
    開(kāi)封第一講書(shū)人閱讀 51,115評(píng)論 1 296
  • 那天词爬,我揣著相機(jī)與錄音,去河邊找鬼权均。 笑死缸夹,一個(gè)胖子當(dāng)著我的面吹牛痪寻,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播虽惭,決...
    沈念sama閱讀 40,025評(píng)論 3 417
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼橡类,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了芽唇?” 一聲冷哼從身側(cè)響起顾画,我...
    開(kāi)封第一講書(shū)人閱讀 38,867評(píng)論 0 274
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎匆笤,沒(méi)想到半個(gè)月后研侣,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,307評(píng)論 1 310
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡炮捧,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,528評(píng)論 2 332
  • 正文 我和宋清朗相戀三年庶诡,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片咆课。...
    茶點(diǎn)故事閱讀 39,688評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡末誓,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出书蚪,到底是詐尸還是另有隱情喇澡,我是刑警寧澤,帶...
    沈念sama閱讀 35,409評(píng)論 5 343
  • 正文 年R本政府宣布殊校,位于F島的核電站晴玖,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏为流。R本人自食惡果不足惜呕屎,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,001評(píng)論 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望敬察。 院中可真熱鬧榨惰,春花似錦、人聲如沸静汤。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 31,657評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)虫给。三九已至,卻和暖如春侠碧,著一層夾襖步出監(jiān)牢的瞬間抹估,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 32,811評(píng)論 1 268
  • 我被黑心中介騙來(lái)泰國(guó)打工弄兜, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留药蜻,地道東北人瓷式。 一個(gè)月前我還...
    沈念sama閱讀 47,685評(píng)論 2 368
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像语泽,于是被迫代替她去往敵國(guó)和親贸典。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,573評(píng)論 2 353

推薦閱讀更多精彩內(nèi)容

  • lindsay Wu xxx@qq.com xxxxxx SUMMARY Deep immersion in En...
    青春正能量_閱讀 395評(píng)論 0 0
  • 路燈點(diǎn)亮了踱卵,房子是不能融化的糖塊 在黑夜的水里 甜和愛(ài)是可以攪動(dòng)的湯勺 落霞褪去包衣 黑乎乎的樹(shù)枝接住了星光 我們...
    千千雨閱讀 194評(píng)論 0 0
  • 我在麗群店里逗留了一會(huì)兒廊驼,聽(tīng)她講了一會(huì)兒話⊥锷埃看到她生活的還行妒挎,雖然苦點(diǎn),累點(diǎn)西饵,只要不出意外酝掩,就是好的。 就像馬斯洛...
    無(wú)為菩提閱讀 332評(píng)論 0 3
  • 2017年2月6日 天氣: 晴 心情: 高興 Objective 你對(duì)今天學(xué)的記得什么眷柔? 溝通的藝術(shù)期虾,講的我們?yōu)槭?..
    Jiang江柳閱讀 603評(píng)論 0 0