寫好Hive 程序的五個提示

(轉(zhuǎn)載 http://blog.sina.com.cn/s/blog_5745722a010172sr.html)?

全排序

Hive的排序關(guān)鍵字是SORT BY,它有意區(qū)別于傳統(tǒng)數(shù)據(jù)庫的ORDER BY也是為了強調(diào)兩者的區(qū)別–SORT BY只能在單機范圍內(nèi)排序匆光∶潦ǎ考慮以下表定義:

CREATE TABLE if not exists t_order(id int, --訂單編號sale_id int, --銷售IDcustomer_id int, --客戶IDproduct _id int, --產(chǎn)品IDamount int --數(shù)量) PARTITIONED BY (ds STRING);

在表中查詢所有銷售記錄,并按照銷售ID和數(shù)量排序:

set mapred.reduce.tasks=2;Select sale_id, amount from t_orderSort by sale_id, amount;

這一查詢可能得到非期望的排序萧诫。指定的2個reducer分發(fā)到的數(shù)據(jù)可能是(各自排序):

Reducer1:

Sale_id | amount0 | 1001 | 301 | 502 | 20

Reducer2:

Sale_id | amount0| 1100 | 1203 | 504 | 20

因為上述查詢沒有reduce key斥难,hive會生成隨機數(shù)作為reduce key。這樣的話輸入記錄也隨機地被分發(fā)到不同reducer機器上去了帘饶。為了保證reducer之間沒有重復的sale_id記錄哑诊,可以使用DISTRIBUTE BY關(guān)鍵字指定分發(fā)key為sale_id。改造后的HQL如下:

set mapred.reduce.tasks=2;Select sale_id, amount from t_orderDistribute by sale_idSort by sale_id, amount;

這樣能夠保證查詢的銷售記錄集合中及刻,銷售ID對應的數(shù)量是正確排序的镀裤,但是銷售ID不能正確排序,原因是hive使用hadoop默認的HashPartitioner分發(fā)數(shù)據(jù)缴饭。

這就涉及到一個全排序的問題暑劝。解決的辦法無外乎兩種:

1.)不分發(fā)數(shù)據(jù),使用單個reducer:

set mapred.reduce.tasks=1;

這一方法的缺陷在于reduce端成為了性能瓶頸颗搂,而且在數(shù)據(jù)量大的情況下一般都無法得到結(jié)果担猛。但是實踐中這仍然是最常用的方法,原因是通常排序的查詢是為了得到排名靠前的若干結(jié)果,因此可以用limit子句大大減少數(shù)據(jù)量傅联。使用limit n后智嚷,傳輸?shù)絩educe端(單機)的數(shù)據(jù)記錄數(shù)就減少到n*(map個數(shù))。

2.)修改Partitioner纺且,這種方法可以做到全排序盏道。這里可以使用Hadoop自帶的TotalOrderPartitioner(來自于Yahoo!的TeraSort項目),這是一個為了支持跨reducer分發(fā)有序數(shù)據(jù)開發(fā)的Partitioner载碌,它需要一個SequenceFile格式的文件指定分發(fā)的數(shù)據(jù)區(qū)間猜嘱。如果我們已經(jīng)生成了這一文件(存儲在/tmp/range_key_list,分成100個reducer)嫁艇,可以將上述查詢改寫為

set mapred.reduce.tasks=100;set hive.mapred.partitioner=org.apache.hadoop.mapred.lib.TotalOrderPartitioner;set total.order.partitioner.path=/tmp/ range_key_list;Select sale_id, amount from t_orderCluster by sale_idSort by amount;

有很多種方法生成這一區(qū)間文件(例如hadoop自帶的o.a.h.mapreduce.lib.partition.InputSampler工具)朗伶。這里介紹用Hive生成的方法,例如有一個按id有序的t_sale表:

CREATE TABLE if not exists t_sale (id int,name string,loc string);

則生成按sale_id分發(fā)的區(qū)間文件的方法是:

create external table range_keys(sale_id int)row format serde'org.apache.hadoop.hive.serde2.binarysortable.BinarySortableSerDe'stored asinputformat'org.apache.hadoop.mapred.TextInputFormat'outputformat'org.apache.hadoop.hive.ql.io.HiveNullValueSequenceFileOutputFormat'location '/tmp/range_key_list';insert overwrite table range_keysselect distinct sale_idfrom source t_sale sampletable(BUCKET 100 OUT OF 100 ON rand()) ssort by sale_id;

生成的文件(/tmp/range_key_list目錄下)可以讓TotalOrderPartitioner按sale_id有序地分發(fā)reduce處理的數(shù)據(jù)步咪。區(qū)間文件需要考慮的主要問題是數(shù)據(jù)分發(fā)的均衡性论皆,這有賴于對數(shù)據(jù)深入的理解。

怎樣做笛卡爾積猾漫?

當Hive設定為嚴格模式(hive.mapred.mode=strict)時点晴,不允許在HQL語句中出現(xiàn)笛卡爾積,這實際說明了Hive對笛卡爾積支持較弱悯周。因為找不到Join key粒督,Hive只能使用1個reducer來完成笛卡爾積。

當然也可以用上面說的limit的辦法來減少某個表參與join的數(shù)據(jù)量禽翼,但對于需要笛卡爾積語義的需求來說屠橄,經(jīng)常是一個大表和一個小表的Join操作,結(jié)果仍然很大(以至于無法用單機處理)闰挡,這時MapJoin才是最好的解決辦法锐墙。

MapJoin,顧名思義长酗,會在Map端完成Join操作溪北。這需要將Join操作的一個或多個表完全讀入內(nèi)存。

MapJoin的用法是在查詢/子查詢的SELECT關(guān)鍵字后面添加提示優(yōu)化器轉(zhuǎn)化為MapJoin(目前Hive的優(yōu)化器不能自動優(yōu)化MapJoin)花枫。其中tablelist可以是一個表刻盐,或以逗號連接的表的列表。tablelist中的表將會讀入內(nèi)存劳翰,應該將小表寫在這里敦锌。

PS:有用戶說MapJoin在子查詢中可能出現(xiàn)未知BUG。在大表和小表做笛卡爾積時佳簸,規(guī)避笛卡爾積的方法是乙墙,給Join添加一個Join key颖变,原理很簡單:將小表擴充一列join key,并將小表的條目復制數(shù)倍听想,join key各不相同腥刹;將大表擴充一列join key為隨機數(shù)。

怎樣寫exist in子句汉买?

Hive不支持where子句中的子查詢衔峰,SQL常用的exist in子句需要改寫。這一改寫相對簡單蛙粘〉媛保考慮以下SQL查詢語句:

SELECT a.key, a.valueFROM aWHERE a.key in(SELECT b.keyFROM B);

可以改寫為

SELECT a.key, a.valueFROM a LEFT OUTER JOIN b ON (a.key = b.key)WHERE b.key <> NULL;

一個更高效的實現(xiàn)是利用left semi join改寫為:

SELECT a.key, a.valFROM a LEFT SEMI JOIN b on (a.key = b.key);

left semi join是0.5.0以上版本的特性。

Hive怎樣決定reducer個數(shù)出牧?

Hadoop MapReduce程序中穴肘,reducer個數(shù)的設定極大影響執(zhí)行效率,這使得Hive怎樣決定reducer個數(shù)成為一個關(guān)鍵問題舔痕。遺憾的是Hive的估計機制很弱评抚,不指定reducer個數(shù)的情況下,Hive會猜測確定一個reducer個數(shù)伯复,基于以下兩個設定:

1. hive.exec.reducers.bytes.per.reducer(默認為1000^3)

2. hive.exec.reducers.max(默認為999)

計算reducer數(shù)的公式很簡單:

N=min(參數(shù)2慨代,總輸入數(shù)據(jù)量/參數(shù)1)

通常情況下,有必要手動指定reducer個數(shù)边翼∮阆欤考慮到map階段的輸出數(shù)據(jù)量通常會比輸入有大幅減少,因此即使不設定reducer個數(shù)组底,重設參數(shù)2還是必要的。依據(jù)Hadoop的經(jīng)驗筐骇,可以將參數(shù)2設定為0.95*(集群中TaskTracker個數(shù))债鸡。

合并MapReduce操作

Multi-group by

Multi-group by是Hive的一個非常好的特性,它使得Hive中利用中間結(jié)果變得非常方便铛纬。例如厌均,

FROM (SELECT a.status, b.school, b.gender FROM status_updates a JOIN profiles b ON (a.userid = b.userid and a.ds='2009-03-20' ) ) subq1 INSERT OVERWRITE TABLE gender_summary PARTITION(ds='2009-03-20') SELECT subq1.gender, COUNT(1) GROUP BY subq1.gender INSERT OVERWRITE TABLE school_summary PARTITION(ds='2009-03-20') SELECT subq1.school, COUNT(1) GROUP BY subq1.school

上述查詢語句使用了Multi-group by特性連續(xù)group by了2次數(shù)據(jù),使用不同的group by key告唆。這一特性可以減少一次MapReduce操作棺弊。

Multi-distinct

Multi-distinct是淘寶開發(fā)的另一個multi-xxx特性,使用Multi-distinct可以在同一查詢/子查詢中使用多個distinct擒悬,這同樣減少了多次MapReduce操作模她。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市懂牧,隨后出現(xiàn)的幾起案子侈净,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 222,104評論 6 515
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件畜侦,死亡現(xiàn)場離奇詭異元扔,居然都是意外死亡,警方通過查閱死者的電腦和手機旋膳,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 94,816評論 3 399
  • 文/潘曉璐 我一進店門澎语,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人验懊,你說我怎么就攤上這事咏连。” “怎么了鲁森?”我有些...
    開封第一講書人閱讀 168,697評論 0 360
  • 文/不壞的土叔 我叫張陵祟滴,是天一觀的道長。 經(jīng)常有香客問我歌溉,道長垄懂,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 59,836評論 1 298
  • 正文 為了忘掉前任痛垛,我火速辦了婚禮草慧,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘匙头。我一直安慰自己漫谷,他們只是感情好,可當我...
    茶點故事閱讀 68,851評論 6 397
  • 文/花漫 我一把揭開白布蹂析。 她就那樣靜靜地躺著舔示,像睡著了一般。 火紅的嫁衣襯著肌膚如雪电抚。 梳的紋絲不亂的頭發(fā)上惕稻,一...
    開封第一講書人閱讀 52,441評論 1 310
  • 那天,我揣著相機與錄音蝙叛,去河邊找鬼俺祠。 笑死,一個胖子當著我的面吹牛借帘,可吹牛的內(nèi)容都是我干的蜘渣。 我是一名探鬼主播,決...
    沈念sama閱讀 40,992評論 3 421
  • 文/蒼蘭香墨 我猛地睜開眼肺然,長吁一口氣:“原來是場噩夢啊……” “哼蔫缸!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起狰挡,我...
    開封第一講書人閱讀 39,899評論 0 276
  • 序言:老撾萬榮一對情侶失蹤捂龄,失蹤者是張志新(化名)和其女友劉穎释涛,沒想到半個月后,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體倦沧,經(jīng)...
    沈念sama閱讀 46,457評論 1 318
  • 正文 獨居荒郊野嶺守林人離奇死亡唇撬,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 38,529評論 3 341
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了展融。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片窖认。...
    茶點故事閱讀 40,664評論 1 352
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖告希,靈堂內(nèi)的尸體忽然破棺而出扑浸,到底是詐尸還是另有隱情,我是刑警寧澤燕偶,帶...
    沈念sama閱讀 36,346評論 5 350
  • 正文 年R本政府宣布喝噪,位于F島的核電站,受9級特大地震影響指么,放射性物質(zhì)發(fā)生泄漏酝惧。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 42,025評論 3 334
  • 文/蒙蒙 一伯诬、第九天 我趴在偏房一處隱蔽的房頂上張望晚唇。 院中可真熱鬧,春花似錦盗似、人聲如沸哩陕。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,511評論 0 24
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽悍及。三九已至,卻和暖如春号阿,著一層夾襖步出監(jiān)牢的瞬間并鸵,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 33,611評論 1 272
  • 我被黑心中介騙來泰國打工扔涧, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人届谈。 一個月前我還...
    沈念sama閱讀 49,081評論 3 377
  • 正文 我出身青樓枯夜,卻偏偏與公主長得像,于是被迫代替她去往敵國和親艰山。 傳聞我的和親對象是個殘疾皇子湖雹,可洞房花燭夜當晚...
    茶點故事閱讀 45,675評論 2 359

推薦閱讀更多精彩內(nèi)容