[調(diào)優(yōu)]數(shù)據(jù)傾斜調(diào)優(yōu)~spark性能優(yōu)化:

spark性能優(yōu)化:數(shù)據(jù)傾斜調(diào)優(yōu) - LW_ICE - 博客頻道 - CSDN.NET
http://blog.csdn.net/lw_ghy/article/details/51419877

調(diào)優(yōu)概述
有的時候,我們可能會遇到大數(shù)據(jù)計算中一個最棘手的問題——數(shù)據(jù)傾斜此再,此時Spark作業(yè)的性能會比期望差很多细卧。數(shù)據(jù)傾斜調(diào)優(yōu)呀洲,就是使用各種技術(shù)方案解決不同類型的數(shù)據(jù)傾斜問題挖帘,以保證Spark作業(yè)的性能梭纹。
數(shù)據(jù)傾斜發(fā)生時的現(xiàn)象
  1但骨、絕大多數(shù)task執(zhí)行得都非撑制耄快,但個別task執(zhí)行極慢嗽冒。比如呀伙,總共有1000個task,997個task都在1分鐘之內(nèi)執(zhí)行完了添坊,但是剩余兩三個task卻要一兩個小時剿另。這種情況很常見”嵬埽  2雨女、原本能夠正常執(zhí)行的Spark作業(yè),某天突然報出OOM(內(nèi)存溢出)異常阳准,觀察異常棧氛堕,是我們寫的業(yè)務(wù)代碼造成的。這種情況比較少見野蝇。
數(shù)據(jù)傾斜發(fā)生的原理
  數(shù)據(jù)傾斜的原理很簡單:在進(jìn)行shuffle的時候讼稚,必須將各個節(jié)點上相同的key拉取到某個節(jié)點上的一個task來進(jìn)行處理,比如按照key進(jìn)行聚合或join等操作绕沈。此時如果某個key對應(yīng)的數(shù)據(jù)量特別大的話锐想,就會發(fā)生數(shù)據(jù)傾斜。比如大部分key對應(yīng)10條數(shù)據(jù)乍狐,但是個別key卻對應(yīng)了100萬條數(shù)據(jù)赠摇,那么大部分task可能就只會分配到10條數(shù)據(jù),然后1秒鐘就運行完了;但是個別task可能分配到了100萬數(shù)據(jù)藕帜,要運行一兩個小時烫罩。因此,整個Spark作業(yè)的運行進(jìn)度是由運行時間最長的那個task決定的洽故”丛埽  因此出現(xiàn)數(shù)據(jù)傾斜的時候,Spark作業(yè)看起來會運行得非常緩慢收津,甚至可能因為某個task處理的數(shù)據(jù)量過大導(dǎo)致內(nèi)存溢出饿这。  下圖就是一個很清晰的例子:hello這個key撞秋,在三個節(jié)點上對應(yīng)了總共7條數(shù)據(jù)长捧,這些數(shù)據(jù)都會被拉取到同一個task中進(jìn)行處理;而world和you這兩個key分別才對應(yīng)1條數(shù)據(jù)吻贿,所以另外兩個task只要分別處理1條數(shù)據(jù)即可串结。此時第一個task的運行時間可能是另外兩個task的7倍,而整個stage的運行速度也由運行最慢的那個task所決定舅列。


如何定位導(dǎo)致數(shù)據(jù)傾斜的代碼
  數(shù)據(jù)傾斜只會發(fā)生在shuffle過程中肌割。這里給大家羅列一些常用的并且可能會觸發(fā)shuffle操作的算子:distinct、groupByKey帐要、reduceByKey把敞、aggregateByKey、join榨惠、cogroup奋早、repartition等。出現(xiàn)數(shù)據(jù)傾斜時赠橙,可能就是你的代碼中使用了這些算子中的某一個所導(dǎo)致的耽装。某個task執(zhí)行特別慢的情況
  首先要看的,就是數(shù)據(jù)傾斜發(fā)生在第幾個stage中期揪〉粞伲  如果是用yarn-client模式提交,那么本地是直接可以看到log的凤薛,可以在log中找到當(dāng)前運行到了第幾個stage姓建;如果是用yarn-cluster模式提交,則可以通過Spark Web UI來查看當(dāng)前運行到了第幾個stage枉侧。此外引瀑,無論是使用yarn-client模式還是yarn-cluster模式,我們都可以在Spark Web UI上深入看一下當(dāng)前這個stage各個task分配的數(shù)據(jù)量榨馁,從而進(jìn)一步確定是不是task分配的數(shù)據(jù)不均勻?qū)е铝藬?shù)據(jù)傾斜≈姆  比如下圖中翼虫,倒數(shù)第三列顯示了每個task的運行時間屑柔。明顯可以看到,有的task運行特別快珍剑,只需要幾秒鐘就可以運行完掸宛;而有的task運行特別慢,需要幾分鐘才能運行完招拙,此時單從運行時間上看就已經(jīng)能夠確定發(fā)生數(shù)據(jù)傾斜了唧瘾。此外,倒數(shù)第一列顯示了每個task處理的數(shù)據(jù)量别凤,明顯可以看到饰序,運行時間特別短的task只需要處理幾百KB的數(shù)據(jù)即可,而運行時間特別長的task需要處理幾千KB的數(shù)據(jù)规哪,處理的數(shù)據(jù)量差了10倍求豫。此時更加能夠確定是發(fā)生了數(shù)據(jù)傾斜。

知道數(shù)據(jù)傾斜發(fā)生在哪一個stage之后诉稍,接著我們就需要根據(jù)stage劃分原理蝠嘉,推算出來發(fā)生傾斜的那個stage對應(yīng)代碼中的哪一部分,這部分代碼中肯定會有一個shuffle類算子杯巨。精準(zhǔn)推算stage與代碼的對應(yīng)關(guān)系蚤告,需要對Spark的源碼有深入的理解,這里我們可以介紹一個相對簡單實用的推算方法:只要看到Spark代碼中出現(xiàn)了一個shuffle類算子或者是Spark SQL的SQL語句中出現(xiàn)了會導(dǎo)致shuffle的語句(比如group by語句)服爷,那么就可以判定杜恰,以那個地方為界限劃分出了前后兩個stage〔惴觯  這里我們就以Spark最基礎(chǔ)的入門程序——單詞計數(shù)來舉例箫章,如何用最簡單的方法大致推算出一個stage對應(yīng)的代碼。如下示例镜会,在整個代碼中檬寂,只有一個reduceByKey是會發(fā)生shuffle的算子,因此就可以認(rèn)為戳表,以這個算子為界限桶至,會劃分出前后兩個stage∝倚瘢  1镣屹、stage0,主要是執(zhí)行從textFile到map操作价涝,以及執(zhí)行shuffle write操作女蜈。shuffle write操作,我們可以簡單理解為對pairs RDD中的數(shù)據(jù)進(jìn)行分區(qū)操作,每個task處理的數(shù)據(jù)中伪窖,相同的key會寫入同一個磁盤文件內(nèi)逸寓。  2覆山、stage1竹伸,主要是執(zhí)行從reduceByKey到collect操作,stage1的各個task一開始運行,就會首先執(zhí)行shuffle read操作。執(zhí)行shuffle read操作的task狮暑,會從stage0的各個task所在節(jié)點拉取屬于自己處理的那些key,然后對同一個key進(jìn)行全局性的聚合或join等操作譬嚣,在這里就是對key的value值進(jìn)行累加。stage1在執(zhí)行完reduceByKey算子之后见妒,就計算出了最終的wordCounts RDD孤荣,然后會執(zhí)行collect算子,將所有數(shù)據(jù)拉取到Driver上须揣,供我們遍歷和打印輸出盐股。
[python] view plain copy
print?
在CODE上查看代碼片
在CODE上查看代碼片
派生到我的代碼片
派生到我的代碼片

val conf = new SparkConf()
val sc = new SparkContext(conf)

val lines = sc.textFile("hdfs://...")
val words = lines.flatMap(.split(" "))
val pairs = words.map((
, 1))
val wordCounts = pairs.reduceByKey(_ + _)

wordCounts.collect().foreach(println(_))

通過對單詞計數(shù)程序的分析,希望能夠讓大家了解最基本的stage劃分的原理耻卡,以及stage劃分后shuffle操作是如何在兩個stage的邊界處執(zhí)行的疯汁。然后我們就知道如何快速定位出發(fā)生數(shù)據(jù)傾斜的stage對應(yīng)代碼的哪一個部分了。比如我們在Spark Web UI或者本地log中發(fā)現(xiàn)卵酪,stage1的某幾個task執(zhí)行得特別慢幌蚊,判定stage1出現(xiàn)了數(shù)據(jù)傾斜,那么就可以回到代碼中定位出stage1主要包括了reduceByKey這個shuffle類算子溃卡,此時基本就可以確定是由educeByKey算子導(dǎo)致的數(shù)據(jù)傾斜問題溢豆。比如某個單詞出現(xiàn)了100萬次,其他單詞才出現(xiàn)10次瘸羡,那么stage1的某個task就要處理100萬數(shù)據(jù)漩仙,整個stage的速度就會被這個task拖慢。某個task莫名其妙內(nèi)存溢出的情況
  這種情況下去定位出問題的代碼就比較容易了犹赖。我們建議直接看yarn-client模式下本地log的異常棧队他,或者是通過YARN查看yarn-cluster模式下的log中的異常棧。一般來說峻村,通過異常棧信息就可以定位到你的代碼中哪一行發(fā)生了內(nèi)存溢出麸折。然后在那行代碼附近找找,一般也會有shuffle類算子粘昨,此時很可能就是這個算子導(dǎo)致了數(shù)據(jù)傾斜垢啼〈芫猓  但是大家要注意的是,不能單純靠偶然的內(nèi)存溢出就判定發(fā)生了數(shù)據(jù)傾斜膊夹。因為自己編寫的代碼的bug衬浑,以及偶然出現(xiàn)的數(shù)據(jù)異常捌浩,也可能會導(dǎo)致內(nèi)存溢出放刨。因此還是要按照上面所講的方法,通過Spark Web UI查看報錯的那個stage的各個task的運行時間以及分配的數(shù)據(jù)量尸饺,才能確定是否是由于數(shù)據(jù)傾斜才導(dǎo)致了這次內(nèi)存溢出进统。查看導(dǎo)致數(shù)據(jù)傾斜的key的數(shù)據(jù)分布情況
  知道了數(shù)據(jù)傾斜發(fā)生在哪里之后,通常需要分析一下那個執(zhí)行了shuffle操作并且導(dǎo)致了數(shù)據(jù)傾斜的RDD/Hive表浪听,查看一下其中key的分布情況螟碎。這主要是為之后選擇哪一種技術(shù)方案提供依據(jù)。針對不同的key分布與不同的shuffle算子組合起來的各種情況迹栓,可能需要選擇不同的技術(shù)方案來解決掉分。  此時根據(jù)你執(zhí)行操作的情況不同克伊,可以有很多種查看key分布的方式:  1酥郭、如果是Spark SQL中的group by、join語句導(dǎo)致的數(shù)據(jù)傾斜愿吹,那么就查詢一下SQL中使用的表的key分布情況不从。  2犁跪、如果是對Spark RDD執(zhí)行shuffle算子導(dǎo)致的數(shù)據(jù)傾斜椿息,那么可以在Spark作業(yè)中加入查看key分布的代碼,比如RDD.countByKey()坷衍。然后對統(tǒng)計出來的各個key出現(xiàn)的次數(shù)寝优,collect/take到客戶端打印一下,就可以看到key的分布情況枫耳》Ψ  舉例來說,對于上面所說的單詞計數(shù)程序嘉涌,如果確定了是stage1的reduceByKey算子導(dǎo)致了數(shù)據(jù)傾斜妻熊,那么就應(yīng)該看看進(jìn)行reduceByKey操作的RDD中的key分布情況,在這個例子中指的就是pairs RDD仑最。如下示例扔役,我們可以先對pairs采樣10%的樣本數(shù)據(jù),然后使用countByKey算子統(tǒng)計出每個key出現(xiàn)的次數(shù)警医,最后在客戶端遍歷和打印樣本數(shù)據(jù)中各個key的出現(xiàn)次數(shù)亿胸。
[python] view plain copy
print?

派生到我的代碼片
派生到我的代碼片

val sampledPairs = pairs.sample(false, 0.1)
val sampledWordCounts = sampledPairs.countByKey()
sampledWordCounts.foreach(println(_))

數(shù)據(jù)傾斜的解決方案
解決方案一:使用Hive ETL預(yù)處理數(shù)據(jù)
  方案適用場景:導(dǎo)致數(shù)據(jù)傾斜的是Hive表坯钦。如果該Hive表中的數(shù)據(jù)本身很不均勻(比如某個key對應(yīng)了100萬數(shù)據(jù),其他key才對應(yīng)了10條數(shù)據(jù))侈玄,而且業(yè)務(wù)場景需要頻繁使用Spark對Hive表執(zhí)行某個分析操作婉刀,那么比較適合使用這種技術(shù)方案⌒蛳桑  方案實現(xiàn)思路:此時可以評估一下突颊,是否可以通過Hive來進(jìn)行數(shù)據(jù)預(yù)處理(即通過Hive ETL預(yù)先對數(shù)據(jù)按照key進(jìn)行聚合,或者是預(yù)先和其他表進(jìn)行join)潘悼,然后在Spark作業(yè)中針對的數(shù)據(jù)源就不是原來的Hive表了律秃,而是預(yù)處理后的Hive表。此時由于數(shù)據(jù)已經(jīng)預(yù)先進(jìn)行過聚合或join操作了治唤,那么在Spark作業(yè)中也就不需要使用原先的shuffle類算子執(zhí)行這類操作了棒动。  方案實現(xiàn)原理:這種方案從根源上解決了數(shù)據(jù)傾斜宾添,因為徹底避免了在Spark中執(zhí)行shuffle類算子船惨,那么肯定就不會有數(shù)據(jù)傾斜的問題了。但是這里也要提醒一下大家缕陕,這種方式屬于治標(biāo)不治本粱锐。因為畢竟數(shù)據(jù)本身就存在分布不均勻的問題,所以Hive ETL中進(jìn)行g(shù)roup by或者join等shuffle操作時榄檬,還是會出現(xiàn)數(shù)據(jù)傾斜卜范,導(dǎo)致Hive ETL的速度很慢。我們只是把數(shù)據(jù)傾斜的發(fā)生提前到了Hive ETL中鹿榜,避免Spark程序發(fā)生數(shù)據(jù)傾斜而已海雪。  方案優(yōu)點:實現(xiàn)起來簡單便捷舱殿,效果還非常好奥裸,完全規(guī)避掉了數(shù)據(jù)傾斜,Spark作業(yè)的性能會大幅度提升沪袭⊥逯妫  方案缺點:治標(biāo)不治本,Hive ETL中還是會發(fā)生數(shù)據(jù)傾斜冈绊∠丽  方案實踐經(jīng)驗:在一些Java系統(tǒng)與Spark結(jié)合使用的項目中,會出現(xiàn)Java代碼頻繁調(diào)用Spark作業(yè)的場景死宣,而且對Spark作業(yè)的執(zhí)行性能要求很高伟恶,就比較適合使用這種方案。將數(shù)據(jù)傾斜提前到上游的Hive ETL毅该,每天僅執(zhí)行一次博秫,只有那一次是比較慢的潦牛,而之后每次Java調(diào)用Spark作業(yè)時,執(zhí)行速度都會很快挡育,能夠提供更好的用戶體驗巴碗。  項目實踐經(jīng)驗:在美團(tuán)·點評的交互式用戶行為分析系統(tǒng)中使用了這種方案即寒,該系統(tǒng)主要是允許用戶通過Java Web系統(tǒng)提交數(shù)據(jù)分析統(tǒng)計任務(wù)橡淆,后端通過Java提交Spark作業(yè)進(jìn)行數(shù)據(jù)分析統(tǒng)計。要求Spark作業(yè)速度必須要快蒿叠,盡量在10分鐘以內(nèi)明垢,否則速度太慢,用戶體驗會很差市咽。所以我們將有些Spark作業(yè)的shuffle操作提前到了Hive ETL中,從而讓Spark直接使用預(yù)處理的Hive中間表抵蚊,盡可能地減少Spark的shuffle操作施绎,大幅度提升了性能,將部分作業(yè)的性能提升了6倍以上贞绳。解決方案二:過濾少數(shù)導(dǎo)致傾斜的key
  方案適用場景:如果發(fā)現(xiàn)導(dǎo)致傾斜的key就少數(shù)幾個谷醉,而且對計算本身的影響并不大的話,那么很適合使用這種方案冈闭。比如99%的key就對應(yīng)10條數(shù)據(jù)俱尼,但是只有一個key對應(yīng)了100萬數(shù)據(jù),從而導(dǎo)致了數(shù)據(jù)傾斜萎攒∮霭耍  方案實現(xiàn)思路:如果我們判斷那少數(shù)幾個數(shù)據(jù)量特別多的key,對作業(yè)的執(zhí)行和計算結(jié)果不是特別重要的話耍休,那么干脆就直接過濾掉那少數(shù)幾個key刃永。比如,在Spark SQL中可以使用where子句過濾掉這些key或者在Spark Core中對RDD執(zhí)行filter算子過濾掉這些key羊精。如果需要每次作業(yè)執(zhí)行時斯够,動態(tài)判定哪些key的數(shù)據(jù)量最多然后再進(jìn)行過濾,那么可以使用sample算子對RDD進(jìn)行采樣喧锦,然后計算出每個key的數(shù)量读规,取數(shù)據(jù)量最多的key過濾掉即可∪忌伲  方案實現(xiàn)原理:將導(dǎo)致數(shù)據(jù)傾斜的key給過濾掉之后束亏,這些key就不會參與計算了,自然不可能產(chǎn)生數(shù)據(jù)傾斜供汛∏雇簦  方案優(yōu)點:實現(xiàn)簡單涌穆,而且效果也很好,可以完全規(guī)避掉數(shù)據(jù)傾斜雀久∷尴。  方案缺點:適用場景不多,大多數(shù)情況下赖捌,導(dǎo)致傾斜的key還是很多的祝沸,并不是只有少數(shù)幾個≡奖樱  方案實踐經(jīng)驗:在項目中我們也采用過這種方案解決數(shù)據(jù)傾斜罩锐。有一次發(fā)現(xiàn)某一天Spark作業(yè)在運行的時候突然OOM了,追查之后發(fā)現(xiàn)卤唉,是Hive表中的某一個key在那天數(shù)據(jù)異常涩惑,導(dǎo)致數(shù)據(jù)量暴增。因此就采取每次執(zhí)行前先進(jìn)行采樣桑驱,計算出樣本中數(shù)據(jù)量最大的幾個key之后竭恬,直接在程序中將那些key給過濾掉。解決方案三:提高shuffle操作的并行度
  方案適用場景:如果我們必須要對數(shù)據(jù)傾斜迎難而上熬的,那么建議優(yōu)先使用這種方案痊硕,因為這是處理數(shù)據(jù)傾斜最簡單的一種方案⊙嚎颍  方案實現(xiàn)思路:在對RDD執(zhí)行shuffle算子時岔绸,給shuffle算子傳入一個參數(shù),比如reduceByKey(1000)橡伞,該參數(shù)就設(shè)置了這個shuffle算子執(zhí)行時shuffle read task的數(shù)量盒揉。對于Spark SQL中的shuffle類語句,比如group by骑歹、join等预烙,需要設(shè)置一個參數(shù),即spark.sql.shuffle.partitions道媚,該參數(shù)代表了shuffle read task的并行度扁掸,該值默認(rèn)是200,對于很多場景來說都有點過小最域∏捶郑  方案實現(xiàn)原理:增加shuffle read task的數(shù)量,可以讓原本分配給一個task的多個key分配給多個task镀脂,從而讓每個task處理比原來更少的數(shù)據(jù)牺蹄。舉例來說,如果原本有5個key薄翅,每個key對應(yīng)10條數(shù)據(jù)沙兰,這5個key都是分配給一個task的氓奈,那么這個task就要處理50條數(shù)據(jù)。而增加了shuffle read task以后鼎天,每個task就分配到一個key舀奶,即每個task就處理10條數(shù)據(jù),那么自然每個task的執(zhí)行時間都會變短了斋射。具體原理如下圖所示育勺。  方案優(yōu)點:實現(xiàn)起來比較簡單罗岖,可以有效緩解和減輕數(shù)據(jù)傾斜的影響涧至。  方案缺點:只是緩解了數(shù)據(jù)傾斜而已桑包,沒有徹底根除問題南蓬,根據(jù)實踐經(jīng)驗來看,其效果有限捡多”涂担  方案實踐經(jīng)驗:該方案通常無法徹底解決數(shù)據(jù)傾斜,因為如果出現(xiàn)一些極端情況垒手,比如某個key對應(yīng)的數(shù)據(jù)量有100萬,那么無論你的task數(shù)量增加到多少倒信,這個對應(yīng)著100萬數(shù)據(jù)的key肯定還是會分配到一個task中去處理科贬,因此注定還是會發(fā)生數(shù)據(jù)傾斜的。所以這種方案只能說是在發(fā)現(xiàn)數(shù)據(jù)傾斜時嘗試使用的第一種手段鳖悠,嘗試去用嘴簡單的方法緩解數(shù)據(jù)傾斜而已榜掌,或者是和其他方案結(jié)合起來使用。


解決方案四:兩階段聚合(局部聚合+全局聚合)
  方案適用場景:對RDD執(zhí)行reduceByKey等聚合類shuffle算子或者在Spark SQL中使用group by語句進(jìn)行分組聚合時乘综,比較適用這種方案憎账。  方案實現(xiàn)思路:這個方案的核心實現(xiàn)思路就是進(jìn)行兩階段聚合卡辰。第一次是局部聚合胞皱,先給每個key都打上一個隨機(jī)數(shù),比如10以內(nèi)的隨機(jī)數(shù)九妈,此時原先一樣的key就變成不一樣的了反砌,比如(hello, 1) (hello, 1) (hello, 1) (hello, 1),就會變成(1_hello, 1) (1_hello, 1) (2_hello, 1) (2_hello, 1)萌朱。接著對打上隨機(jī)數(shù)后的數(shù)據(jù)宴树,執(zhí)行reduceByKey等聚合操作,進(jìn)行局部聚合晶疼,那么局部聚合結(jié)果酒贬,就會變成了(1_hello, 2) (2_hello, 2)又憨。然后將各個key的前綴給去掉,就會變成(hello,2)(hello,2)锭吨,再次進(jìn)行全局聚合操作蠢莺,就可以得到最終結(jié)果了,比如(hello, 4)耐齐±嗣兀  方案實現(xiàn)原理:將原本相同的key通過附加隨機(jī)前綴的方式,變成多個不同的key埠况,就可以讓原本被一個task處理的數(shù)據(jù)分散到多個task上去做局部聚合耸携,進(jìn)而解決單個task處理數(shù)據(jù)量過多的問題。接著去除掉隨機(jī)前綴辕翰,再次進(jìn)行全局聚合夺衍,就可以得到最終的結(jié)果。具體原理見下圖喜命」瞪常  方案優(yōu)點:對于聚合類的shuffle操作導(dǎo)致的數(shù)據(jù)傾斜,效果是非常不錯的壁榕。通常都可以解決掉數(shù)據(jù)傾斜矛紫,或者至少是大幅度緩解數(shù)據(jù)傾斜,將Spark作業(yè)的性能提升數(shù)倍以上牌里〖找В  方案缺點:僅僅適用于聚合類的shuffle操作,適用范圍相對較窄牡辽。如果是join類的shuffle操作喳篇,還得用其他的解決方案。

[python] view plain copy
print?
在CODE上查看代碼片
在CODE上查看代碼片
派生到我的代碼片
派生到我的代碼片

// 第一步态辛,給RDD中的每個key都打上一個隨機(jī)前綴麸澜。
JavaPairRDD<String, Long> randomPrefixRdd = rdd.mapToPair(
new PairFunction<Tuple2<Long,Long>, String, Long>() {
private static final long serialVersionUID = 1L;
@Override
public Tuple2<String, Long> call(Tuple2<Long, Long> tuple)
throws Exception {
Random random = new Random();
int prefix = random.nextInt(10);
return new Tuple2<String, Long>(prefix + "_" + tuple._1, tuple._2);
}
});

// 第二步,對打上隨機(jī)前綴的key進(jìn)行局部聚合奏黑。
JavaPairRDD<String, Long> localAggrRdd = randomPrefixRdd.reduceByKey(
new Function2<Long, Long, Long>() {
private static final long serialVersionUID = 1L;
@Override
public Long call(Long v1, Long v2) throws Exception {
return v1 + v2;
}
});

// 第三步炊邦,去除RDD中每個key的隨機(jī)前綴。
JavaPairRDD<Long, Long> removedRandomPrefixRdd = localAggrRdd.mapToPair(
new PairFunction<Tuple2<String,Long>, Long, Long>() {
private static final long serialVersionUID = 1L;
@Override
public Tuple2<Long, Long> call(Tuple2<String, Long> tuple)
throws Exception {
long originalKey = Long.valueOf(tuple.1.split("")[1]);
return new Tuple2<Long, Long>(originalKey, tuple._2);
}
});

// 第四步攀涵,對去除了隨機(jī)前綴的RDD進(jìn)行全局聚合铣耘。
JavaPairRDD<Long, Long> globalAggrRdd = removedRandomPrefixRdd.reduceByKey(
new Function2<Long, Long, Long>() {
private static final long serialVersionUID = 1L;
@Override
public Long call(Long v1, Long v2) throws Exception {
return v1 + v2;
}
});

解決方案五:將reduce join轉(zhuǎn)為map join
  方案適用場景:在對RDD使用join類操作,或者是在Spark SQL中使用join語句時以故,而且join操作中的一個RDD或表的數(shù)據(jù)量比較形舷浮(比如幾百M或者一兩G),比較適用此方案÷剑  方案實現(xiàn)思路:不使用join算子進(jìn)行連接操作踪区,而使用Broadcast變量與map類算子實現(xiàn)join操作,進(jìn)而完全規(guī)避掉shuffle類的操作吊骤,徹底避免數(shù)據(jù)傾斜的發(fā)生和出現(xiàn)缎岗。將較小RDD中的數(shù)據(jù)直接通過collect算子拉取到Driver端的內(nèi)存中來,然后對其創(chuàng)建一個Broadcast變量白粉;接著對另外一個RDD執(zhí)行map類算子传泊,在算子函數(shù)內(nèi),從Broadcast變量中獲取較小RDD的全量數(shù)據(jù)鸭巴,與當(dāng)前RDD的每一條數(shù)據(jù)按照連接key進(jìn)行比對眷细,如果連接key相同的話,那么就將兩個RDD的數(shù)據(jù)用你需要的方式連接起來鹃祖∠担  方案實現(xiàn)原理:普通的join是會走shuffle過程的,而一旦shuffle恬口,就相當(dāng)于會將相同key的數(shù)據(jù)拉取到一個shuffle read task中再進(jìn)行join校读,此時就是reduce join。但是如果一個RDD是比較小的祖能,則可以采用廣播小RDD全量數(shù)據(jù)+map算子來實現(xiàn)與join同樣的效果歉秫,也就是map join,此時就不會發(fā)生shuffle操作养铸,也就不會發(fā)生數(shù)據(jù)傾斜端考。具體原理如下圖所示〗液瘢  方案優(yōu)點:對join操作導(dǎo)致的數(shù)據(jù)傾斜,效果非常好扶供,因為根本就不會發(fā)生shuffle筛圆,也就根本不會發(fā)生數(shù)據(jù)傾斜〈慌ǎ  方案缺點:適用場景較少太援,因為這個方案只適用于一個大表和一個小表的情況。畢竟我們需要將小表進(jìn)行廣播扳碍,此時會比較消耗內(nèi)存資源提岔,driver和每個Executor內(nèi)存中都會駐留一份小RDD的全量數(shù)據(jù)。如果我們廣播出去的RDD數(shù)據(jù)比較大笋敞,比如10G以上碱蒙,那么就可能發(fā)生內(nèi)存溢出了。因此并不適合兩個都是大表的情況。


[python] view plain copy
print?
在CODE上查看代碼片
在CODE上查看代碼片
派生到我的代碼片
派生到我的代碼片

// 首先將數(shù)據(jù)量比較小的RDD的數(shù)據(jù)赛惩,collect到Driver中來哀墓。
List<Tuple2<Long, Row>> rdd1Data = rdd1.collect()
// 然后使用Spark的廣播功能,將小RDD的數(shù)據(jù)轉(zhuǎn)換成廣播變量喷兼,這樣每個Executor就只有一份RDD的數(shù)據(jù)篮绰。
// 可以盡可能節(jié)省內(nèi)存空間,并且減少網(wǎng)絡(luò)傳輸性能開銷季惯。
final Broadcast<List<Tuple2<Long, Row>>> rdd1DataBroadcast = sc.broadcast(rdd1Data);

// 對另外一個RDD執(zhí)行map類操作吠各,而不再是join類操作。
JavaPairRDD<String, Tuple2<String, Row>> joinedRdd = rdd2.mapToPair(
new PairFunction<Tuple2<Long,String>, String, Tuple2<String, Row>>() {
private static final long serialVersionUID = 1L;
@Override
public Tuple2<String, Tuple2<String, Row>> call(Tuple2<Long, String> tuple)
throws Exception {
// 在算子函數(shù)中勉抓,通過廣播變量贾漏,獲取到本地Executor中的rdd1數(shù)據(jù)。
List<Tuple2<Long, Row>> rdd1Data = rdd1DataBroadcast.value();
// 可以將rdd1的數(shù)據(jù)轉(zhuǎn)換為一個Map琳状,便于后面進(jìn)行join操作磕瓷。
Map<Long, Row> rdd1DataMap = new HashMap<Long, Row>();
for(Tuple2<Long, Row> data : rdd1Data) {
rdd1DataMap.put(data._1, data._2);
}
// 獲取當(dāng)前RDD數(shù)據(jù)的key以及value。
String key = tuple._1;
String value = tuple._2;
// 從rdd1數(shù)據(jù)Map中念逞,根據(jù)key獲取到可以join到的數(shù)據(jù)困食。
Row rdd1Value = rdd1DataMap.get(key);
return new Tuple2<String, String>(key, new Tuple2<String, Row>(value, rdd1Value));
}
});

// 這里得提示一下。
// 上面的做法翎承,僅僅適用于rdd1中的key沒有重復(fù)硕盹,全部是唯一的場景懈叹。
// 如果rdd1中有多個相同的key案训,那么就得用flatMap類的操作刑顺,在進(jìn)行join的時候不能用map筛欢,而是得遍歷rdd1所有數(shù)據(jù)進(jìn)行join茫打。
// rdd2中每條數(shù)據(jù)都可能會返回多條join后的數(shù)據(jù)他膳。

解決方案六:采樣傾斜key并分拆join操作
  方案適用場景:兩個RDD/Hive表進(jìn)行join的時候真朗,如果數(shù)據(jù)量都比較大躺同,無法采用“解決方案五”趣倾,那么此時可以看一下兩個RDD/Hive表中的key分布情況聘惦。如果出現(xiàn)數(shù)據(jù)傾斜,是因為其中某一個RDD/Hive表中的少數(shù)幾個key的數(shù)據(jù)量過大儒恋,而另一個RDD/Hive表中的所有key都分布比較均勻善绎,那么采用這個解決方案是比較合適的〗刖。  方案實現(xiàn)思路:  1禀酱、對包含少數(shù)幾個數(shù)據(jù)量過大的key的那個RDD,通過sample算子采樣出一份樣本來牧嫉,然后統(tǒng)計一下每個key的數(shù)量剂跟,計算出來數(shù)據(jù)量最大的是哪幾個key。  2浩聋、然后將這幾個key對應(yīng)的數(shù)據(jù)從原來的RDD中拆分出來观蜗,形成一個單獨的RDD,并給每個key都打上n以內(nèi)的隨機(jī)數(shù)作為前綴衣洁,而不會導(dǎo)致傾斜的大部分key形成另外一個RDD墓捻。  3坊夫、接著將需要join的另一個RDD砖第,也過濾出來那幾個傾斜key對應(yīng)的數(shù)據(jù)并形成一個單獨的RDD,將每條數(shù)據(jù)膨脹成n條數(shù)據(jù)环凿,這n條數(shù)據(jù)都按順序附加一個0~n的前綴梧兼,不會導(dǎo)致傾斜的大部分key也形成另外一個RDD≈翘  4羽杰、再將附加了隨機(jī)前綴的獨立RDD與另一個膨脹n倍的獨立RDD進(jìn)行join,此時就可以將原先相同的key打散成n份到推,分散到多個task中去進(jìn)行join了考赛。  5莉测、而另外兩個普通的RDD就照常join即可颜骤。  6捣卤、最后將兩次join的結(jié)果使用union算子合并起來即可忍抽,就是最終的join結(jié)果《  方案實現(xiàn)原理:對于join導(dǎo)致的數(shù)據(jù)傾斜鸠项,如果只是某幾個key導(dǎo)致了傾斜,可以將少數(shù)幾個key分拆成獨立RDD子姜,并附加隨機(jī)前綴打散成n份去進(jìn)行join锈锤,此時這幾個key對應(yīng)的數(shù)據(jù)就不會集中在少數(shù)幾個task上,而是分散到多個task進(jìn)行join了闲询。具體原理見下圖∏痴蓿  方案優(yōu)點:對于join導(dǎo)致的數(shù)據(jù)傾斜扭弧,如果只是某幾個key導(dǎo)致了傾斜,采用該方式可以用最有效的方式打散key進(jìn)行join记舆。而且只需要針對少數(shù)傾斜key對應(yīng)的數(shù)據(jù)進(jìn)行擴(kuò)容n倍鸽捻,不需要對全量數(shù)據(jù)進(jìn)行擴(kuò)容。避免了占用過多內(nèi)存∮眩  方案缺點:如果導(dǎo)致傾斜的key特別多的話衣赶,比如成千上萬個key都導(dǎo)致數(shù)據(jù)傾斜,那么這種方式也不適合厚满。


[python] view plain copy
print?
在CODE上查看代碼片
在CODE上查看代碼片
派生到我的代碼片
派生到我的代碼片

// 首先從包含了少數(shù)幾個導(dǎo)致數(shù)據(jù)傾斜key的rdd1中府瞄,采樣10%的樣本數(shù)據(jù)。
JavaPairRDD<Long, String> sampledRDD = rdd1.sample(false, 0.1);

// 對樣本數(shù)據(jù)RDD統(tǒng)計出每個key的出現(xiàn)次數(shù)碘箍,并按出現(xiàn)次數(shù)降序排序遵馆。
// 對降序排序后的數(shù)據(jù),取出top 1或者top 100的數(shù)據(jù)丰榴,也就是key最多的前n個數(shù)據(jù)货邓。
// 具體取出多少個數(shù)據(jù)量最多的key,由大家自己決定四濒,我們這里就取1個作為示范换况。
JavaPairRDD<Long, Long> mappedSampledRDD = sampledRDD.mapToPair(
new PairFunction<Tuple2<Long,String>, Long, Long>() {
private static final long serialVersionUID = 1L;
@Override
public Tuple2<Long, Long> call(Tuple2<Long, String> tuple)
throws Exception {
return new Tuple2<Long, Long>(tuple._1, 1L);
}
});
JavaPairRDD<Long, Long> countedSampledRDD = mappedSampledRDD.reduceByKey(
new Function2<Long, Long, Long>() {
private static final long serialVersionUID = 1L;
@Override
public Long call(Long v1, Long v2) throws Exception {
return v1 + v2;
}
});
JavaPairRDD<Long, Long> reversedSampledRDD = countedSampledRDD.mapToPair(
new PairFunction<Tuple2<Long,Long>, Long, Long>() {
private static final long serialVersionUID = 1L;
@Override
public Tuple2<Long, Long> call(Tuple2<Long, Long> tuple)
throws Exception {
return new Tuple2<Long, Long>(tuple._2, tuple._1);
}
});
final Long skewedUserid = reversedSampledRDD.sortByKey(false).take(1).get(0)._2;

// 從rdd1中分拆出導(dǎo)致數(shù)據(jù)傾斜的key,形成獨立的RDD盗蟆。
JavaPairRDD<Long, String> skewedRDD = rdd1.filter(
new Function<Tuple2<Long,String>, Boolean>() {
private static final long serialVersionUID = 1L;
@Override
public Boolean call(Tuple2<Long, String> tuple) throws Exception {
return tuple._1.equals(skewedUserid);
}
});
// 從rdd1中分拆出不導(dǎo)致數(shù)據(jù)傾斜的普通key戈二,形成獨立的RDD。
JavaPairRDD<Long, String> commonRDD = rdd1.filter(
new Function<Tuple2<Long,String>, Boolean>() {
private static final long serialVersionUID = 1L;
@Override
public Boolean call(Tuple2<Long, String> tuple) throws Exception {
return !tuple._1.equals(skewedUserid);
}
});

// rdd2姆涩,就是那個所有key的分布相對較為均勻的rdd挽拂。
// 這里將rdd2中,前面獲取到的key對應(yīng)的數(shù)據(jù)骨饿,過濾出來亏栈,分拆成單獨的rdd,并對rdd中的數(shù)據(jù)使用flatMap算子都擴(kuò)容100倍宏赘。
// 對擴(kuò)容的每條數(shù)據(jù)绒北,都打上0~100的前綴。
JavaPairRDD<String, Row> skewedRdd2 = rdd2.filter(
new Function<Tuple2<Long,Row>, Boolean>() {
private static final long serialVersionUID = 1L;
@Override
public Boolean call(Tuple2<Long, Row> tuple) throws Exception {
return tuple.1.equals(skewedUserid);
}
}).flatMapToPair(new PairFlatMapFunction<Tuple2<Long,Row>, String, Row>() {
private static final long serialVersionUID = 1L;
@Override
public Iterable<Tuple2<String, Row>> call(
Tuple2<Long, Row> tuple) throws Exception {
Random random = new Random();
List<Tuple2<String, Row>> list = new ArrayList<Tuple2<String, Row>>();
for(int i = 0; i < 100; i++) {
list.add(new Tuple2<String, Row>(i + "
" + tuple._1, tuple._2));
}
return list;
}

    });  

// 將rdd1中分拆出來的導(dǎo)致傾斜的key的獨立rdd察署,每條數(shù)據(jù)都打上100以內(nèi)的隨機(jī)前綴闷游。
// 然后將這個rdd1中分拆出來的獨立rdd,與上面rdd2中分拆出來的獨立rdd贴汪,進(jìn)行join脐往。
JavaPairRDD<Long, Tuple2<String, Row>> joinedRDD1 = skewedRDD.mapToPair(
new PairFunction<Tuple2<Long,String>, String, String>() {
private static final long serialVersionUID = 1L;
@Override
public Tuple2<String, String> call(Tuple2<Long, String> tuple)
throws Exception {
Random random = new Random();
int prefix = random.nextInt(100);
return new Tuple2<String, String>(prefix + "_" + tuple._1, tuple._2);
}
})
.join(skewedUserid2infoRDD)
.mapToPair(new PairFunction<Tuple2<String,Tuple2<String,Row>>, Long, Tuple2<String, Row>>() {
private static final long serialVersionUID = 1L;
@Override
public Tuple2<Long, Tuple2<String, Row>> call(
Tuple2<String, Tuple2<String, Row>> tuple)
throws Exception {
long key = Long.valueOf(tuple.1.split("")[1]);
return new Tuple2<Long, Tuple2<String, Row>>(key, tuple._2);
}
});

// 將rdd1中分拆出來的包含普通key的獨立rdd,直接與rdd2進(jìn)行join扳埂。
JavaPairRDD<Long, Tuple2<String, Row>> joinedRDD2 = commonRDD.join(rdd2);

// 將傾斜key join后的結(jié)果與普通key join后的結(jié)果业簿,uinon起來。
// 就是最終的join結(jié)果阳懂。
JavaPairRDD<Long, Tuple2<String, Row>> joinedRDD = joinedRDD1.union(joinedRDD2);

解決方案七:使用隨機(jī)前綴和擴(kuò)容RDD進(jìn)行join
  方案適用場景:如果在進(jìn)行join操作時梅尤,RDD中有大量的key導(dǎo)致數(shù)據(jù)傾斜柜思,那么進(jìn)行分拆key也沒什么意義,此時就只能使用最后一種方案來解決問題了巷燥∩呐蹋  方案實現(xiàn)思路:  1、該方案的實現(xiàn)思路基本和“解決方案六”類似缰揪,首先查看RDD/Hive表中的數(shù)據(jù)分布情況陨享,找到那個造成數(shù)據(jù)傾斜的RDD/Hive表,比如有多個key都對應(yīng)了超過1萬條數(shù)據(jù)邀跃∶棺桑  2、然后將該RDD的每條數(shù)據(jù)都打上一個n以內(nèi)的隨機(jī)前綴拍屑⊥窘洌  3、同時對另外一個正常的RDD進(jìn)行擴(kuò)容僵驰,將每條數(shù)據(jù)都擴(kuò)容成n條數(shù)據(jù)喷斋,擴(kuò)容出來的每條數(shù)據(jù)都依次打上一個0~n的前綴∷廛睿  4星爪、最后將兩個處理后的RDD進(jìn)行join即可》鬯剑  方案實現(xiàn)原理:將原先一樣的key通過附加隨機(jī)前綴變成不一樣的key顽腾,然后就可以將這些處理后的“不同key”分散到多個task中去處理,而不是讓一個task處理大量的相同key诺核。該方案與“解決方案六”的不同之處就在于抄肖,上一種方案是盡量只對少數(shù)傾斜key對應(yīng)的數(shù)據(jù)進(jìn)行特殊處理,由于處理過程需要擴(kuò)容RDD窖杀,因此上一種方案擴(kuò)容RDD后對內(nèi)存的占用并不大漓摩;而這一種方案是針對有大量傾斜key的情況,沒法將部分key拆分出來進(jìn)行單獨處理入客,因此只能對整個RDD進(jìn)行數(shù)據(jù)擴(kuò)容管毙,對內(nèi)存資源要求很高∽懒颍  方案優(yōu)點:對join類型的數(shù)據(jù)傾斜基本都可以處理夭咬,而且效果也相對比較顯著,性能提升效果非常不錯铆隘≈宀海  方案缺點:該方案更多的是緩解數(shù)據(jù)傾斜,而不是徹底避免數(shù)據(jù)傾斜咖驮。而且需要對整個RDD進(jìn)行擴(kuò)容边器,對內(nèi)存資源要求很高⊥行蓿  方案實踐經(jīng)驗:曾經(jīng)開發(fā)一個數(shù)據(jù)需求的時候忘巧,發(fā)現(xiàn)一個join導(dǎo)致了數(shù)據(jù)傾斜。優(yōu)化之前睦刃,作業(yè)的執(zhí)行時間大約是60分鐘左右砚嘴;使用該方案優(yōu)化之后,執(zhí)行時間縮短到10分鐘左右涩拙,性能提升了6倍际长。[python] view plain copy
print?

派生到我的代碼片
派生到我的代碼片

// 首先將其中一個key分布相對較為均勻的RDD膨脹100倍。
JavaPairRDD<String, Row> expandedRDD = rdd1.flatMapToPair(
new PairFlatMapFunction<Tuple2<Long,Row>, String, Row>() {
private static final long serialVersionUID = 1L;
@Override
public Iterable<Tuple2<String, Row>> call(Tuple2<Long, Row> tuple)
throws Exception {
List<Tuple2<String, Row>> list = new ArrayList<Tuple2<String, Row>>();
for(int i = 0; i < 100; i++) {
list.add(new Tuple2<String, Row>(0 + "_" + tuple._1, tuple._2));
}
return list;
}
});

// 其次兴泥,將另一個有數(shù)據(jù)傾斜key的RDD工育,每條數(shù)據(jù)都打上100以內(nèi)的隨機(jī)前綴。
JavaPairRDD<String, String> mappedRDD = rdd2.mapToPair(
new PairFunction<Tuple2<Long,String>, String, String>() {
private static final long serialVersionUID = 1L;
@Override
public Tuple2<String, String> call(Tuple2<Long, String> tuple)
throws Exception {
Random random = new Random();
int prefix = random.nextInt(100);
return new Tuple2<String, String>(prefix + "_" + tuple._1, tuple._2);
}
});

// 將兩個處理后的RDD進(jìn)行join即可搓彻。
JavaPairRDD<String, Tuple2<String, Row>> joinedRDD = mappedRDD.join(expandedRDD);

解決方案八:多種方案組合使用
  在實踐中發(fā)現(xiàn)如绸,很多情況下,如果只是處理較為簡單的數(shù)據(jù)傾斜場景旭贬,那么使用上述方案中的某一種基本就可以解決怔接。但是如果要處理一個較為復(fù)雜的數(shù)據(jù)傾斜場景,那么可能需要將多種方案組合起來使用稀轨。比如說扼脐,我們針對出現(xiàn)了多個數(shù)據(jù)傾斜環(huán)節(jié)的Spark作業(yè),可以先運用解決方案一和二奋刽,預(yù)處理一部分?jǐn)?shù)據(jù)瓦侮,并過濾一部分?jǐn)?shù)據(jù)來緩解;其次可以對某些shuffle操作提升并行度杨名,優(yōu)化其性能脏榆;最后還可以針對不同的聚合或join操作,選擇一種方案來優(yōu)化其性能台谍。大家需要對這些方案的思路和原理都透徹理解之后须喂,在實踐中根據(jù)各種不同的情況,靈活運用多種方案趁蕊,來解決自己的數(shù)據(jù)傾斜問題坞生。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市掷伙,隨后出現(xiàn)的幾起案子是己,更是在濱河造成了極大的恐慌,老刑警劉巖任柜,帶你破解...
    沈念sama閱讀 206,126評論 6 481
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件卒废,死亡現(xiàn)場離奇詭異沛厨,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)摔认,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,254評論 2 382
  • 文/潘曉璐 我一進(jìn)店門逆皮,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人参袱,你說我怎么就攤上這事电谣。” “怎么了抹蚀?”我有些...
    開封第一講書人閱讀 152,445評論 0 341
  • 文/不壞的土叔 我叫張陵剿牺,是天一觀的道長。 經(jīng)常有香客問我环壤,道長晒来,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 55,185評論 1 278
  • 正文 為了忘掉前任镐捧,我火速辦了婚禮潜索,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘懂酱。我一直安慰自己竹习,他們只是感情好,可當(dāng)我...
    茶點故事閱讀 64,178評論 5 371
  • 文/花漫 我一把揭開白布列牺。 她就那樣靜靜地躺著整陌,像睡著了一般。 火紅的嫁衣襯著肌膚如雪瞎领。 梳的紋絲不亂的頭發(fā)上泌辫,一...
    開封第一講書人閱讀 48,970評論 1 284
  • 那天,我揣著相機(jī)與錄音九默,去河邊找鬼震放。 笑死,一個胖子當(dāng)著我的面吹牛驼修,可吹牛的內(nèi)容都是我干的殿遂。 我是一名探鬼主播,決...
    沈念sama閱讀 38,276評論 3 399
  • 文/蒼蘭香墨 我猛地睜開眼乙各,長吁一口氣:“原來是場噩夢啊……” “哼墨礁!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起耳峦,我...
    開封第一講書人閱讀 36,927評論 0 259
  • 序言:老撾萬榮一對情侶失蹤恩静,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后蹲坷,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體驶乾,經(jīng)...
    沈念sama閱讀 43,400評論 1 300
  • 正文 獨居荒郊野嶺守林人離奇死亡邑飒,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 35,883評論 2 323
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了级乐。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片幸乒。...
    茶點故事閱讀 37,997評論 1 333
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖唇牧,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情聚唐,我是刑警寧澤丐重,帶...
    沈念sama閱讀 33,646評論 4 322
  • 正文 年R本政府宣布,位于F島的核電站杆查,受9級特大地震影響扮惦,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜亲桦,卻給世界環(huán)境...
    茶點故事閱讀 39,213評論 3 307
  • 文/蒙蒙 一崖蜜、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧客峭,春花似錦豫领、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,204評論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至备蚓,卻和暖如春课蔬,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背郊尝。 一陣腳步聲響...
    開封第一講書人閱讀 31,423評論 1 260
  • 我被黑心中介騙來泰國打工二跋, 沒想到剛下飛機(jī)就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人流昏。 一個月前我還...
    沈念sama閱讀 45,423評論 2 352
  • 正文 我出身青樓扎即,卻偏偏與公主長得像,于是被迫代替她去往敵國和親横缔。 傳聞我的和親對象是個殘疾皇子铺遂,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 42,722評論 2 345

推薦閱讀更多精彩內(nèi)容