背景 本文基于spark 3.2driver內(nèi)存 2G 問題描述 在基于復(fù)雜的sql運(yùn)行中迎献,或者說是存在多個(gè)join操作的sql中哨颂,如果說driver內(nèi)存不是很大的情況下野瘦,我...
背景 本文基于spark 3.2driver內(nèi)存 2G 問題描述 在基于復(fù)雜的sql運(yùn)行中迎献,或者說是存在多個(gè)join操作的sql中哨颂,如果說driver內(nèi)存不是很大的情況下野瘦,我...
背景 最近在寫hiveUDF的時(shí)候哎垦,遇到了一些反序列的問題,具體的報(bào)錯(cuò)如下: 分析 我們的代碼類似如下: 其中spark的配置是使用kryo序列化,spark.seriali...
背景 本文基于spark 3.1.2在之前的文章spark CTAS nuion all (union all的個(gè)數(shù)很多)導(dǎo)致超過spark.driver.maxResult...
背景 該sql運(yùn)行在spark版本 3.1.2下的thrift server下 現(xiàn)象 在運(yùn)行包含多個(gè)union 的spark sql的時(shí)候報(bào)錯(cuò)(該sql包含了50多個(gè)uino...
背景 對(duì)于spark的不同的join操作來說,有些謂詞是能下推黎比,是有謂詞是不能下推的超营,今天我們實(shí)地操作一番,從現(xiàn)象和源碼級(jí)別分析一下阅虫,這到底是怎么回事糟描。 版本&環(huán)境 spar...
背景 最近在弄spark on k8s的時(shí)候,要集成同事的一些功能躬拢,其實(shí)這并沒有什么躲履,但是里面涉及到了hive的類問題(具體指這個(gè)org.apache.hadoop.hive...
Zen項(xiàng)目 Zen項(xiàng)目在一年前開始啟動(dòng),目標(biāo)就是讓spark對(duì)python用戶更加友好 類型提示 重要的一步就是加了一些類型提示聊闯,例如他能夠在IDE或者notebook中自動(dòng)...
我們知道目前在spark on k8s的官網(wǎng)中[https://spark.apache.org/docs/3.1.2/running-on-kubernetes.html#...
背景 為什么選擇spark on k8s Apache Spark 作為一站式平臺(tái)統(tǒng)一了批處理,實(shí)時(shí)處理,流分析菱蔬,機(jī)器學(xué)習(xí)篷帅,以及交互式查詢.雖然說spark 提供了多樣的使用...
本文翻譯自Mastering Query Plans in Spark 3.0[https://towardsdatascience.com/mastering-query-...
背景 由于前段時(shí)間在學(xué)習(xí)mysql相關(guān)的知識(shí)棘催,其中涉及到了wal redo log以及磁盤的問題劲弦,在此記錄一下。 Page Cache page Cache 是現(xiàn)代操作系統(tǒng)為...
pod的phase從Failed轉(zhuǎn)換為了Succeeded一開始遇到這個(gè)問題的時(shí)候很是蒙,查了一系列的源碼谚赎,也沒有找到原因淫僻,線下也沒有復(fù)現(xiàn)出來,后面查看kubenrete的G...