解決Hive創(chuàng)建文件數(shù)過多的問題

一. Hive的創(chuàng)建文件數(shù)的限制

Hive對文件創(chuàng)建的總數(shù)是有限制的苍柏,這個限制取決于參數(shù):

hive.exec.max.created.files彻况,默認值是10000白胀。如果現(xiàn)在你的表有60個分區(qū)箱沦,然后你總共有2000個map,在運行的時候惕橙,每一個mapper都會創(chuàng)建60個文件瞧甩,對應(yīng)著每一個分區(qū),所以60*2000> 120000弥鹦,就會報錯:exceeds 100000.Killing the job

解決辦法:

最簡單的解決辦法就是調(diào)大hive.exec.max.created.files參數(shù)肚逸。
但是如果說數(shù)據(jù)文件只有400G,那么你調(diào)整這個參數(shù)比如說40000
平均下來也就差不多每一個文件10.24MB,這樣的話就有40000多個小文件彬坏,我們知道小文件對于hadoop來講朦促,不是一件很好的事情。

這里就涉及到Hive當(dāng)中小文件的問題:

Hive之中小文件問題
我們知道小文件的對于Hadoop來講苍鲜,在小文件很多的時候思灰,可以把NameNode搞掛掉玷犹。

Hive里面什么時候會產(chǎn)生大量小文件呢?

  • 一個大文件使用動態(tài)分區(qū)混滔,可能導(dǎo)致大量分區(qū)產(chǎn)生,從而產(chǎn)生多很多小文件歹颓,也會導(dǎo)致很多的mapper
  • Reduce個數(shù)越多坯屿,小文件越多,Reduce個數(shù)和輸出文件是一樣的
  • 數(shù)據(jù)源本身就包含很多的小文件

小文件會帶來什么影響呢巍扛?

文件的數(shù)量和大小會決定mapper任務(wù)的數(shù)量领跛,所以小文件越多,mapper任務(wù)越多撤奸,每一個mapper都會啟動一個JVM來運行吠昭,所以這些任務(wù)的初始化和執(zhí)行會花費大量的資源,嚴重影響性能

在NameNode每一個小文件的大約占150字節(jié)胧瓜,小文件太多矢棚,會嚴重影響NameNode

如何解決小文件的問題

  1. 如果動態(tài)分區(qū)不可預(yù)知的情況下,最好別用府喳,如果用也最好distributedby 分區(qū)字段蒲肋,這樣我們知道會對字段進行一個hash操作,這樣就會把相同的相同的分區(qū)給同一個Reduce去處理

  2. 如果Reduce數(shù)量太多,則減少reduce的數(shù)量

  3. 進行一些參數(shù)設(shè)置

設(shè)置 mapper輸入文件合并一些參數(shù):

set mapred.max.split.size=256000000; #每個Map最大輸入大小
set mapred.min.split.size.per.node=100000000; #一個節(jié)點上split的至少的大小(這個值決定了多個DataNode上的文件是否需要合并)
set mapred.min.split.size.per.rack=100000000; #一個交換機下split的至少的大小(這個值決定了該機架下的文件是否需要合并)
set hive.input.format=org.apache.Hadoop.hive.ql.io.CombineHiveInputFormat; # 執(zhí)行Map前進行小文件合并

在開啟了org.apache.hadoop.hive.ql.io.CombineHiveInputFormat后兜粘,一個data node節(jié)點上多個小文件會進行合并申窘,合并文件數(shù)由mapred.max.split.size限制的大小決定。
mapred.min.split.size.per.node決定了多個data node上的文件是否需要合并~
mapred.min.split.size.per.rack決定了多個交換機上的文件是否需要合并~

設(shè)置 map輸出和reduce輸出進行合并的相關(guān)參數(shù)

hive.merge.mapfiles= true #設(shè)置 map輸出和reduce輸出進行合并的相關(guān)參數(shù)
hive.merge.mapredfiles= true 設(shè)置reduce端輸出進行合并孔轴,默認為false
hive.merge.size.per.task= 256 *1000 * 1000 設(shè)置合并文件的大小
hive.merge.smallfiles.avgsize=16000000 輸出文件的平均大小小于該值時剃法,啟動一個獨立的MapReduce任務(wù)進行文件merge

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市路鹰,隨后出現(xiàn)的幾起案子玄窝,更是在濱河造成了極大的恐慌,老刑警劉巖悍引,帶你破解...
    沈念sama閱讀 210,914評論 6 490
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件恩脂,死亡現(xiàn)場離奇詭異,居然都是意外死亡趣斤,警方通過查閱死者的電腦和手機俩块,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 89,935評論 2 383
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來浓领,“玉大人玉凯,你說我怎么就攤上這事×罚” “怎么了漫仆?”我有些...
    開封第一講書人閱讀 156,531評論 0 345
  • 文/不壞的土叔 我叫張陵,是天一觀的道長泪幌。 經(jīng)常有香客問我盲厌,道長,這世上最難降的妖魔是什么祸泪? 我笑而不...
    開封第一講書人閱讀 56,309評論 1 282
  • 正文 為了忘掉前任吗浩,我火速辦了婚禮,結(jié)果婚禮上没隘,老公的妹妹穿的比我還像新娘懂扼。我一直安慰自己,他們只是感情好右蒲,可當(dāng)我...
    茶點故事閱讀 65,381評論 5 384
  • 文/花漫 我一把揭開白布阀湿。 她就那樣靜靜地躺著,像睡著了一般瑰妄。 火紅的嫁衣襯著肌膚如雪陷嘴。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 49,730評論 1 289
  • 那天翰撑,我揣著相機與錄音罩旋,去河邊找鬼啊央。 笑死,一個胖子當(dāng)著我的面吹牛涨醋,可吹牛的內(nèi)容都是我干的瓜饥。 我是一名探鬼主播,決...
    沈念sama閱讀 38,882評論 3 404
  • 文/蒼蘭香墨 我猛地睜開眼浴骂,長吁一口氣:“原來是場噩夢啊……” “哼乓土!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起溯警,我...
    開封第一講書人閱讀 37,643評論 0 266
  • 序言:老撾萬榮一對情侶失蹤趣苏,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后梯轻,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體食磕,經(jīng)...
    沈念sama閱讀 44,095評論 1 303
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 36,448評論 2 325
  • 正文 我和宋清朗相戀三年喳挑,在試婚紗的時候發(fā)現(xiàn)自己被綠了彬伦。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 38,566評論 1 339
  • 序言:一個原本活蹦亂跳的男人離奇死亡伊诵,死狀恐怖单绑,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情曹宴,我是刑警寧澤搂橙,帶...
    沈念sama閱讀 34,253評論 4 328
  • 正文 年R本政府宣布,位于F島的核電站笛坦,受9級特大地震影響区转,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜弯屈,卻給世界環(huán)境...
    茶點故事閱讀 39,829評論 3 312
  • 文/蒙蒙 一蜗帜、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧资厉,春花似錦、人聲如沸蔬顾。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,715評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽诀豁。三九已至窄刘,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間舷胜,已是汗流浹背娩践。 一陣腳步聲響...
    開封第一講書人閱讀 31,945評論 1 264
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人翻伺。 一個月前我還...
    沈念sama閱讀 46,248評論 2 360
  • 正文 我出身青樓材泄,卻偏偏與公主長得像,于是被迫代替她去往敵國和親吨岭。 傳聞我的和親對象是個殘疾皇子拉宗,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 43,440評論 2 348

推薦閱讀更多精彩內(nèi)容