【DL筆記6】從此明白了卷積神經(jīng)網(wǎng)絡(luò)(CNN)

初識(shí)卷積神經(jīng)網(wǎng)絡(luò)(CNN)

從今天起缀台,正式開(kāi)始講解卷積神經(jīng)網(wǎng)絡(luò)棠赛。這是一種曾經(jīng)讓我無(wú)論如何也無(wú)法弄明白的東西,主要是名字就太“高級(jí)”了,網(wǎng)上的各種各樣的文章來(lái)介紹“什么是卷積”尤為讓人受不了睛约。聽(tīng)了吳恩達(dá)的網(wǎng)課之后鼎俘,豁然開(kāi)朗,終于搞明白了這個(gè)東西是什么和為什么辩涝。我這里大概會(huì)用6~7篇文章來(lái)講解CNN并實(shí)現(xiàn)一些有趣的應(yīng)用贸伐。看完之后大家應(yīng)該可以自己動(dòng)手做一些自己喜歡的事兒了怔揩。

一捉邢、引子————邊界檢測(cè)

我們來(lái)看一個(gè)最簡(jiǎn)單的例子:“邊界檢測(cè)(edge detection)”,假設(shè)我們有這樣的一張圖片商膊,大小8×8:

圖片中的數(shù)字代表該位置的像素值伏伐,我們知道,像素值越大晕拆,顏色越亮藐翎,所以為了示意,我們把右邊小像素的地方畫(huà)成深色实幕。圖的中間兩個(gè)顏色的分界線就是我們要檢測(cè)的邊界吝镣。

怎么檢測(cè)這個(gè)邊界呢?我們可以設(shè)計(jì)這樣的一個(gè) 濾波器(filter昆庇,也稱(chēng)為kernel)赤惊,大小3×3:

filter

然后,我們用這個(gè)filter凰锡,往我們的圖片上“蓋”未舟,覆蓋一塊跟filter一樣大的區(qū)域之后,對(duì)應(yīng)元素相乘掂为,然后求和裕膀。計(jì)算一個(gè)區(qū)域之后,就向其他區(qū)域挪動(dòng)勇哗,接著計(jì)算昼扛,直到把原圖片的每一個(gè)角落都覆蓋到了為止。這個(gè)過(guò)程就是 “卷積”欲诺。
(我們不用管卷積在數(shù)學(xué)上到底是指什么運(yùn)算抄谐,我們只用知道在CNN中是怎么計(jì)算的。)
這里的“挪動(dòng)”扰法,就涉及到一個(gè)步長(zhǎng)了蛹含,假如我們的步長(zhǎng)是1,那么覆蓋了一個(gè)地方之后塞颁,就挪一格浦箱,容易知道吸耿,總共可以覆蓋6×6個(gè)不同的區(qū)域。

那么酷窥,我們將這6×6個(gè)區(qū)域的卷積結(jié)果咽安,拼成一個(gè)矩陣:

邊界檢測(cè)

誒?蓬推!發(fā)現(xiàn)了什么妆棒?
這個(gè)圖片,中間顏色淺沸伏,兩邊顏色深募逞,這說(shuō)明咱們的原圖片中間的邊界,在這里被反映出來(lái)了!

從上面這個(gè)例子中馋评,我們發(fā)現(xiàn),我們可以通過(guò)設(shè)計(jì)特定的filter刺啦,讓它去跟圖片做卷積留特,就可以識(shí)別出圖片中的某些特征,比如邊界玛瘸。
上面的例子是檢測(cè)豎直邊界蜕青,我們也可以設(shè)計(jì)出檢測(cè)水平邊界的,只用把剛剛的filter旋轉(zhuǎn)90°即可糊渊。對(duì)于其他的特征右核,理論上只要我們經(jīng)過(guò)精細(xì)的設(shè)計(jì),總是可以設(shè)計(jì)出合適的filter的渺绒。

我們的CNN(convolutional neural network)贺喝,主要就是通過(guò)一個(gè)個(gè)的filter,不斷地提取特征宗兼,從局部的特征到總體的特征躏鱼,從而進(jìn)行圖像識(shí)別等等功能。

那么問(wèn)題來(lái)了殷绍,我們?cè)趺纯赡苋ピO(shè)計(jì)這么多各種各樣的filter呀染苛?首先,我們都不一定清楚對(duì)于一大推圖片主到,我們需要識(shí)別哪些特征茶行,其次,就算知道了有哪些特征登钥,想真的去設(shè)計(jì)出對(duì)應(yīng)的filter畔师,恐怕也并非易事,要知道牧牢,特征的數(shù)量可能是成千上萬(wàn)的茉唉。

其實(shí)學(xué)過(guò)神經(jīng)網(wǎng)絡(luò)之后固蛾,我們就知道,這些filter度陆,根本就不用我們?nèi)ピO(shè)計(jì)艾凯,每個(gè)filter中的各個(gè)數(shù)字,不就是參數(shù)嗎懂傀,我們可以通過(guò)大量的數(shù)據(jù)趾诗,來(lái) 讓機(jī)器自己去“學(xué)習(xí)”這些參數(shù)嘛。這蹬蚁,就是CNN的原理恃泪。

二、CNN的基本概念

1.padding 填白
從上面的引子中犀斋,我們可以知道贝乎,原圖像在經(jīng)過(guò)filter卷積之后,變小了叽粹,從(8,8)變成了(6,6)览效。假設(shè)我們?cè)倬硪淮危谴笮【妥兂闪?4,4)了虫几。

這樣有啥問(wèn)題呢锤灿?
主要有兩個(gè)問(wèn)題:

  • 每次卷積,圖像都縮小辆脸,這樣卷不了幾次就沒(méi)了但校;
  • 相比于圖片中間的點(diǎn),圖片邊緣的點(diǎn)在卷積中被計(jì)算的次數(shù)很少啡氢。這樣的話状囱,邊緣的信息就易于丟失。

為了解決這個(gè)問(wèn)題倘是,我們可以采用padding的方法浪箭。我們每次卷積前,先給圖片周?chē)佳a(bǔ)一圈空白辨绊,讓卷積之后圖片跟原來(lái)一樣大奶栖,同時(shí),原來(lái)的邊緣也被計(jì)算了更多次门坷。

padding

比如宣鄙,我們把(8,8)的圖片給補(bǔ)成(10,10),那么經(jīng)過(guò)(3,3)的filter之后默蚌,就是(8,8)冻晤,沒(méi)有變。

我們把上面這種“讓卷積之后的大小不變”的padding方式绸吸,稱(chēng)為 “Same”方式鼻弧,
把不經(jīng)過(guò)任何填白的设江,稱(chēng)為 “Valid”方式。這個(gè)是我們?cè)谑褂靡恍┛蚣艿臅r(shí)候攘轩,需要設(shè)置的超參數(shù)叉存。

2.stride 步長(zhǎng)
前面我們所介紹的卷積,都是默認(rèn)步長(zhǎng)是1度帮,但實(shí)際上歼捏,我們可以設(shè)置步長(zhǎng)為其他的值。
比如笨篷,對(duì)于(8,8)的輸入瞳秽,我們用(3,3)的filter,
如果stride=1率翅,則輸出為(6,6);
如果stride=2练俐,則輸出為(3,3);(這里例子舉得不大好,除不斷就向下取整)

3.pooling 池化
這個(gè)pooling冕臭,是為了提取一定區(qū)域的主要特征腺晾,并減少參數(shù)數(shù)量旧找,防止模型過(guò)擬合庄吼。
比如下面的MaxPooling乃戈,采用了一個(gè)2×2的窗口,并取stride=2:

Maxpooling

除了MaxPooling,還有AveragePooling念颈,顧名思義就是取那個(gè)區(qū)域的平均值。

4.對(duì)多通道(channels)圖片的卷積
這個(gè)需要單獨(dú)提一下连霉。彩色圖像榴芳,一般都是RGB三個(gè)通道(channel)的,因此輸入數(shù)據(jù)的維度一般有三個(gè):(長(zhǎng)跺撼,寬窟感,通道)
比如一個(gè)28×28的RGB圖片歉井,維度就是(28,28,3)柿祈。

前面的引子中,輸入圖片是2維的(8,8)哩至,filter是(3,3)躏嚎,輸出也是2維的(6,6)。

如果輸入圖片是三維的呢(即增多了一個(gè)channels)菩貌,比如是(8,8,3)卢佣,這個(gè)時(shí)候,我們的filter的維度就要變成(3,3,3)了箭阶,它的 最后一維要跟輸入的channel維度一致虚茶。
這個(gè)時(shí)候的卷積戈鲁,是三個(gè)channel的所有元素對(duì)應(yīng)相乘后求和,也就是之前是9個(gè)乘積的和嘹叫,現(xiàn)在是27個(gè)乘積的和婆殿。因此,輸出的維度并不會(huì)變化待笑。還是(6,6)鸣皂。

但是,一般情況下暮蹂,我們會(huì) 使用多了filters同時(shí)卷積寞缝,比如,如果我們同時(shí)使用4個(gè)filter的話仰泻,那么 輸出的維度則會(huì)變?yōu)?6,6,4)荆陆。

我特地畫(huà)了下面這個(gè)圖,來(lái)展示上面的過(guò)程:

同時(shí)有4個(gè)filter

圖中的輸入圖像是(8,8,3)集侯,filter有4個(gè)被啼,大小均為(3,3,3),得到的輸出為(6,6,4)棠枉。
我覺(jué)得這個(gè)圖已經(jīng)畫(huà)的很清晰了浓体,而且給出了3和4這個(gè)兩個(gè)關(guān)鍵數(shù)字是怎么來(lái)的,所以我就不啰嗦了(這個(gè)圖畫(huà)了我起碼40分鐘)辈讶。

其實(shí)命浴,如果套用我們前面學(xué)過(guò)的神經(jīng)網(wǎng)絡(luò)的符號(hào)來(lái)看待CNN的話,

  • 我們的輸入圖片就是X贱除,shape=(8,8,3);
  • 4個(gè)filters其實(shí)就是第一層神金網(wǎng)絡(luò)的參數(shù)W1,生闲,shape=(3,3,3,4),這個(gè)4是指有4個(gè)filters;
  • 我們的輸出,就是Z1月幌,shape=(6,6,4);
  • 后面其實(shí)還應(yīng)該有一個(gè)激活函數(shù)碍讯,比如relu,經(jīng)過(guò)激活后扯躺,Z1變?yōu)锳1捉兴,shape=(6,6,4);

所以,在前面的圖中录语,我加一個(gè)激活函數(shù)轴术,給對(duì)應(yīng)的部分標(biāo)上符號(hào),就是這樣的:

嘔心瀝血畫(huà)的好圖片钦无,值得收藏

三逗栽、CNN的結(jié)構(gòu)組成

上面我們已經(jīng)知道了卷積(convolution)、池化(pooling)以及填白(padding)是怎么進(jìn)行的失暂,接下來(lái)我們就來(lái)看看CNN的整體結(jié)構(gòu)彼宠,它包含了3種層(layer):

1. Convolutional layer(卷積層--CONV)
由濾波器filters和激活函數(shù)構(gòu)成鳄虱。
一般要設(shè)置的超參數(shù)包括filters的數(shù)量、大小凭峡、步長(zhǎng)拙已,以及padding是“valid”還是“same”。當(dāng)然摧冀,還包括選擇什么激活函數(shù)倍踪。

2. Pooling layer (池化層--POOL)
這里里面沒(méi)有參數(shù)需要我們學(xué)習(xí),因?yàn)檫@里里面的參數(shù)都是我們?cè)O(shè)置好了索昂,要么是Maxpooling建车,要么是Averagepooling。
需要指定的超參數(shù)椒惨,包括是Max還是average缤至,窗口大小以及步長(zhǎng)。
通常康谆,我們使用的比較多的是Maxpooling,而且一般取大小為(2,2)步長(zhǎng)為2的filter领斥,這樣,經(jīng)過(guò)pooling之后沃暗,輸入的長(zhǎng)寬都會(huì)縮小2倍月洛,channels不變。

3. Fully Connected layer(全連接層--FC)
這個(gè)前面沒(méi)有講孽锥,是因?yàn)檫@個(gè)就是我們最熟悉的家伙嚼黔,就是我們之前學(xué)的神經(jīng)網(wǎng)絡(luò)中的那種最普通的層,就是一排神經(jīng)元忱叭。因?yàn)檫@一層是每一個(gè)單元都和前一層的每一個(gè)單元相連接隔崎,所以稱(chēng)之為“全連接”今艺。
這里要指定的超參數(shù)韵丑,無(wú)非就是神經(jīng)元的數(shù)量,以及激活函數(shù)虚缎。

接下來(lái)撵彻,我們隨便看一個(gè)CNN的模樣,來(lái)獲取對(duì)CNN的一些感性認(rèn)識(shí):

一個(gè)CNN的例子

上面這個(gè)CNN是我隨便拍腦門(mén)想的一個(gè)实牡。它的結(jié)構(gòu)可以用:
X-->CONV(relu)-->MAXPOOL-->CONV(relu)-->FC(relu)-->FC(softmax)-->Y
來(lái)表示陌僵。

這里需要說(shuō)明的是,在經(jīng)過(guò)數(shù)次卷積和池化之后创坞,我們 最后會(huì)先將多維的數(shù)據(jù)進(jìn)行“扁平化”碗短,也就是把 (height,width,channel)的數(shù)據(jù)壓縮成長(zhǎng)度為 height × width × channel 的一維數(shù)組,然后再與 FC層連接题涨,這之后就跟普通的神經(jīng)網(wǎng)絡(luò)無(wú)異了偎谁。

可以從圖中看到总滩,隨著網(wǎng)絡(luò)的深入,我們的圖像(嚴(yán)格來(lái)說(shuō)中間的那些不能叫圖像了巡雨,但是為了方便闰渔,還是這樣說(shuō)吧)越來(lái)越小,但是channels卻越來(lái)越大了铐望。在圖中的表示就是長(zhǎng)方體面對(duì)我們的面積越來(lái)越小冈涧,但是長(zhǎng)度卻越來(lái)越長(zhǎng)了。


四正蛙、卷積神經(jīng)網(wǎng)絡(luò) VS. 傳統(tǒng)神經(jīng)網(wǎng)絡(luò)

其實(shí)現(xiàn)在回過(guò)頭來(lái)看督弓,CNN跟我們之前學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),也沒(méi)有很大的差別跟畅。
傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)咽筋,其實(shí)就是多個(gè)FC層疊加起來(lái)。
CNN徊件,無(wú)非就是把FC改成了CONV和POOL奸攻,就是把傳統(tǒng)的由一個(gè)個(gè)神經(jīng)元組成的layer,變成了由filters組成的layer虱痕。

那么睹耐,為什么要這樣變?有什么好處部翘?
具體說(shuō)來(lái)有兩點(diǎn):

1.參數(shù)共享機(jī)制(parameters sharing)
我們對(duì)比一下傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的層和由filters構(gòu)成的CONV層:
假設(shè)我們的圖像是8×8大小硝训,也就是64個(gè)像素,假設(shè)我們用一個(gè)有9個(gè)單元的全連接層:

使用全連接

那這一層我們需要多少個(gè)參數(shù)呢新思?需要 64×9 = 576個(gè)參數(shù)(先不考慮偏置項(xiàng)b)窖梁。因?yàn)槊恳粋€(gè)鏈接都需要一個(gè)權(quán)重w。

那我們看看 同樣有9個(gè)單元的filter是怎么樣的:

使用filter

其實(shí)不用看就知道夹囚,有幾個(gè)單元就幾個(gè)參數(shù)纵刘,所以總共就9個(gè)參數(shù)

因?yàn)檩┯矗瑢?duì)于不同的區(qū)域假哎,我們都共享同一個(gè)filter,因此就共享這同一組參數(shù)鞍历。
這也是有道理的舵抹,通過(guò)前面的講解我們知道,filter是用來(lái)檢測(cè)特征的劣砍,那一個(gè)特征一般情況下很可能在不止一個(gè)地方出現(xiàn)惧蛹,比如“豎直邊界”,就可能在一幅圖中多出出現(xiàn),那么 我們共享同一個(gè)filter不僅是合理的香嗓,而且是應(yīng)該這么做的爵政。

由此可見(jiàn),參數(shù)共享機(jī)制陶缺,讓我們的網(wǎng)絡(luò)的參數(shù)數(shù)量大大地減少钾挟。這樣,我們可以用較少的參數(shù)饱岸,訓(xùn)練出更加好的模型掺出,典型的事半功倍,而且可以有效地 避免過(guò)擬合苫费。
同樣汤锨,由于filter的參數(shù)共享,即使圖片進(jìn)行了一定的平移操作百框,我們照樣可以識(shí)別出特征闲礼,這叫做 “平移不變性”。因此铐维,模型就更加穩(wěn)健了柬泽。

2.連接的稀疏性(sparsity of connections)
由卷積的操作可知,輸出圖像中的任何一個(gè)單元嫁蛇,只跟輸入圖像的一部分有關(guān)系:

只跟輸入的一部分有關(guān)

而傳統(tǒng)神經(jīng)網(wǎng)絡(luò)中锨并,由于都是全連接,所以輸出的任何一個(gè)單元睬棚,都要受輸入的所有的單元的影響第煮。這樣無(wú)形中會(huì)對(duì)圖像的識(shí)別效果大打折扣。比較抑党,每一個(gè)區(qū)域都有自己的專(zhuān)屬特征包警,我們不希望它受到其他區(qū)域的影響。

正是由于上面這兩大優(yōu)勢(shì)底靠,使得CNN超越了傳統(tǒng)的NN害晦,開(kāi)啟了神經(jīng)網(wǎng)絡(luò)的新時(shí)代。


好了苛骨,今天的文章到此結(jié)束篱瞎!今天是我畫(huà)圖最累的一次苟呐,不過(guò)也畫(huà)的最有成就感的一次痒芝!沒(méi)想到用PowerPoint也可以畫(huà)出這么好看的圖hhh,讓我自己得意一下~~

如果喜歡我的教程牵素,歡迎關(guān)注我的專(zhuān)欄
【DeepLearning學(xué)習(xí)筆記】
和我一起一步步學(xué)習(xí)深度學(xué)習(xí)严衬。
專(zhuān)欄其他文章:
【DL筆記1】Logistic回歸:最基礎(chǔ)的神經(jīng)網(wǎng)絡(luò)
【DL筆記2】神經(jīng)網(wǎng)絡(luò)編程原則&Logistic Regression的算法解析
【DL筆記3】一步步親手用python實(shí)現(xiàn)Logistic Regression
【DL筆記4】神經(jīng)網(wǎng)絡(luò)詳解,正向傳播和反向傳播
【DL筆記5】用TensorFlow搭建神經(jīng)網(wǎng)絡(luò)——手寫(xiě)數(shù)字識(shí)別
【DL碎片1】神經(jīng)網(wǎng)絡(luò)參數(shù)初始化的學(xué)問(wèn)
【DL碎片2】神經(jīng)網(wǎng)絡(luò)中的優(yōu)化算法
【DL碎片3】神經(jīng)網(wǎng)絡(luò)中的激活(Activation)函數(shù)及其對(duì)比
【DL碎片4】深度學(xué)習(xí)中的的超參數(shù)調(diào)節(jié)
【DL碎片5】深度學(xué)習(xí)中的正則化(Regularization))
更精美的文章笆呆,歡迎關(guān)注我的微信公眾平臺(tái) SimpleAI

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末请琳,一起剝皮案震驚了整個(gè)濱河市粱挡,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌俄精,老刑警劉巖询筏,帶你破解...
    沈念sama閱讀 206,311評(píng)論 6 481
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異竖慧,居然都是意外死亡嫌套,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,339評(píng)論 2 382
  • 文/潘曉璐 我一進(jìn)店門(mén)圾旨,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)踱讨,“玉大人,你說(shuō)我怎么就攤上這事砍的”陨福” “怎么了?”我有些...
    開(kāi)封第一講書(shū)人閱讀 152,671評(píng)論 0 342
  • 文/不壞的土叔 我叫張陵廓鞠,是天一觀的道長(zhǎng)帚稠。 經(jīng)常有香客問(wèn)我,道長(zhǎng)床佳,這世上最難降的妖魔是什么翁锡? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 55,252評(píng)論 1 279
  • 正文 為了忘掉前任,我火速辦了婚禮夕土,結(jié)果婚禮上馆衔,老公的妹妹穿的比我還像新娘。我一直安慰自己怨绣,他們只是感情好角溃,可當(dāng)我...
    茶點(diǎn)故事閱讀 64,253評(píng)論 5 371
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著篮撑,像睡著了一般减细。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上赢笨,一...
    開(kāi)封第一講書(shū)人閱讀 49,031評(píng)論 1 285
  • 那天未蝌,我揣著相機(jī)與錄音,去河邊找鬼茧妒。 笑死萧吠,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的桐筏。 我是一名探鬼主播纸型,決...
    沈念sama閱讀 38,340評(píng)論 3 399
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了狰腌?” 一聲冷哼從身側(cè)響起除破,我...
    開(kāi)封第一講書(shū)人閱讀 36,973評(píng)論 0 259
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎琼腔,沒(méi)想到半個(gè)月后瑰枫,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 43,466評(píng)論 1 300
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡丹莲,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 35,937評(píng)論 2 323
  • 正文 我和宋清朗相戀三年躁垛,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片圾笨。...
    茶點(diǎn)故事閱讀 38,039評(píng)論 1 333
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡教馆,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出擂达,到底是詐尸還是另有隱情土铺,我是刑警寧澤,帶...
    沈念sama閱讀 33,701評(píng)論 4 323
  • 正文 年R本政府宣布板鬓,位于F島的核電站悲敷,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏俭令。R本人自食惡果不足惜后德,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,254評(píng)論 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望抄腔。 院中可真熱鬧瓢湃,春花似錦、人聲如沸赫蛇。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 30,259評(píng)論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)悟耘。三九已至落蝙,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間暂幼,已是汗流浹背筏勒。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 31,485評(píng)論 1 262
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留旺嬉,地道東北人管行。 一個(gè)月前我還...
    沈念sama閱讀 45,497評(píng)論 2 354
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像鹰服,于是被迫代替她去往敵國(guó)和親病瞳。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 42,786評(píng)論 2 345

推薦閱讀更多精彩內(nèi)容

  • 本系列文章面向深度學(xué)習(xí)研發(fā)者悲酷,希望通過(guò)Image Caption Generation套菜,一個(gè)有意思的具體任務(wù),深入...
    imGeek閱讀 2,659評(píng)論 1 33
  • 今天是八月的第一天设易,心情不是十分美麗逗柴。 因?yàn)椋约鹤罱K仍是沒(méi)有戰(zhàn)勝情緒顿肺。 由于自己昨晚睡覺(jué)太晚了戏溺,中午也沒(méi)有睡覺(jué),...
    森森h(huán)h閱讀 210評(píng)論 0 0
  • 了解自己的局限,比什么都懂更酷 蔣珠莉 曾認(rèn)識(shí)一個(gè)女孩讼昆,她本分得令人稱(chēng)奇托享。比如,學(xué)校教英語(yǔ)的老師不在浸赫,教學(xué)主任讓她...
    蔣珠莉閱讀 371評(píng)論 0 0
  • 馬上要過(guò)十一了闰围,不能帶著自己挖的坑過(guò)節(jié)日,否則負(fù)擔(dān)很重很重既峡。 為了我節(jié)日快樂(lè)羡榴,讓我們 接著昨天的話題,...
    Luckymay閱讀 277評(píng)論 0 0
  • 第二十四章 不知不覺(jué)中运敢,建筑的工作已經(jīng)接近了尾聲校仑。我行走在正裝修中的房屋中,手機(jī)突然響起传惠,是郁涵打來(lái)的肤视。 我接通了...
    馬戲團(tuán)的我xd閱讀 334評(píng)論 3 1