Spark中的多任務(wù)處理

Spark中的多任務(wù)處理

Spark的一個非常常見的用例是并行運行許多作業(yè)购桑。 構(gòu)建作業(yè)DAG后认烁,Spark將這些任務(wù)分配到多個Executor上并行處理服傍。
但這并不能幫助我們在同一個Spark應(yīng)用程序中同時運行兩個完全獨立的作業(yè)延都,例如同時從多個數(shù)據(jù)源讀取數(shù)據(jù)并將它們寫到對應(yīng)的存儲蒸甜,或同時處理多個文件等棠耕。

每個spark應(yīng)用程序都需要一個SparkSession(Context)來配置和執(zhí)行操作余佛。 SparkSession對象是線程安全的,可以根據(jù)需要傳遞給你的Spark應(yīng)用程序窍荧。

一個順序作業(yè)的例子

假設(shè)我們有一個spark 2.x應(yīng)用程序辉巡,負責將幾個數(shù)據(jù)寫入到HDFS中。

import org.apache.spark.sql.SparkSession

object FancyApp {
  def appMain(args: Array[String]) = {
    // configure spark
    val spark = SparkSession
        .builder
        .appName("parjobs")
        .getOrCreate()

    val df = spark.sparkContext.parallelize(1 to 100).toDF
    doFancyDistinct(df, "hdfs:///dis.parquet")
    doFancySum(df, "hdfs:///sum.parquet")
  }

  def doFancyDistinct(df: DataFrame, outPath: String) = df.distinct.write.parquet(outPath)
  
  def doFancySum(df: DataFrame, outPath: String) = df.agg(sum("value")).write.parquet(outPath)

}

這個程序看起來沒有什么問題蕊退,Spark將按順序執(zhí)行兩個動作郊楣。但這兩個動作是獨立, 我們可以同時執(zhí)行它們瓤荔。

一個有缺陷的并發(fā)作業(yè)的例子

如果你快速的在網(wǎng)上搜索一下 “scala異步編程”痢甘,你就會被引到Scala Future這個解決方案中。
例如以下為一個并行處理RDD的例子:


import scala.concurrent._
import ExecutionContext.Implicits.global

def pipeline(f: String, n: Int) = {
    sqlContext
        .read
        .format("com.databricks.spark.csv")
        .option("header", "true")
        .load(f)
        .repartition(n)
        .groupBy(...)
        .agg(...)
        .cache // Cache so we can force computation later
}
val n: Int = 2 
val files: Array[String] = ['/tmp/test1.csv','/tmp/test2.csv']

val rdds = files.map(f => pipeline(f, n))

def pipelineToFuture(df: org.apache.spark.sql.DataFrame) = Future {
    df.rdd.foreach(_ => ()) // Force computation
    df
}

val result = Future.sequence(
   rdds.map(rdd => pipelineToFuture(rdd)).toList
)

我們只要根據(jù)搜索到的文檔中提供的例子修改一下茉贡,就會得到以下類似內(nèi)容:

import org.apache.spark.sql.SparkSession
import scala.concurrent._
import scala.concurrent.duration._
import scala.concurrent.ExecutionContext.Implicits.global

object FancyApp {
  def appMain(args: Array[String]) = {
    // configure spark
    val spark = SparkSession
        .builder
        .appName("parjobs")
        .getOrCreate()

    val df = spark.sparkContext.parallelize(1 to 100).toDF
    val taskA = doFancyDistinct(df, "hdfs:///dis.parquet")
    val taskB = doFancySum(df, "hdfs:///sum.parquet")
    // Now wait for the tasks to finish before exiting the app
    Await.result(Future.sequence(Seq(taskA,taskB)), Duration(1, MINUTES))
  }

  def doFancyDistinct(df: DataFrame, outPath: String) = Future { df.distinct.write.parquet(outPath) }

  def doFancySum(df: DataFrame, outPath: String) = Future { df.agg(sum("value")).write.parquet(outPath) }
}

ExecutionContext是用于==管理并行操作的Context==塞栅。 實際的線程模型可以由開發(fā)者明確提供,也可以使用全局默認值(這是一個 ForkJoinPool )腔丧,就像我們在上面的代碼中使用的一樣:

import scala.concurrent.ExecutionContext.Implicits.global

使用Global execution context 的問題在于它并不知道我們是在群集上啟動Spark作業(yè)放椰。 默認情況下,Global execution context 提供==與運行代碼的系統(tǒng)中的處理器相同數(shù)量的線程==愉粤。 在我們的Spark應(yīng)用程序中砾医,它將與Driver上的處理器相同數(shù)量的線程。

一個優(yōu)化過的并發(fā)作業(yè)的例子

我們需要控制我們的線程策略衣厘,更一般化地編寫我們的程序如蚜,以便可以在不同的線程模型中重用它們。

例如以下是我們從重寫的函數(shù)影暴,它將允許我們精確控制execution context 來管理調(diào)用函數(shù)時提供的線程數(shù)错邦。 例子中添加的隱式參數(shù)將允許調(diào)用的代碼指定運行函數(shù)時使用哪個ExecutionContext。

def doFancyDistinct(df: DataFrame, outPath: String)(implicit xc: ExecutionContext) = Future {
  df.distinct.write.parquet(outPath)
}

現(xiàn)在讓我們提出一個比默認的Global execution context更好的策略型宙。我們希望能夠指定我們想要的并行度撬呢。

import org.apache.spark.sql.SparkSession
import import java.util.concurrent.Executors
import scala.concurrent._
import scala.concurrent.duration._

object FancyApp {
  def appMain(args: Array[String]) = {
    // configure spark
    val spark = SparkSession
        .builder
        .appName("parjobs")
        .getOrCreate()

    // Set number of threads via a configuration property
    val pool = Executors.newFixedThreadPool(5)
    // create the implicit ExecutionContext based on our thread pool
    implicit val xc = ExecutionContext.fromExecutorService(pool)
    val df = spark.sparkContext.parallelize(1 to 100).toDF
    val taskA = doFancyDistinct(df, "hdfs:///dis.parquet")
    val taskB = doFancySum(df, "hdfs:///sum.parquet")
    // Now wait for the tasks to finish before exiting the app
    Await.result(Future.sequence(Seq(taskA,taskB)), Duration(1, MINUTES))
  }

  def doFancyDistinct(df: DataFrame, outPath: String)(implicit xc: ExecutionContext) = Future {
    df.distinct.write.parquet(outPath)
  }

  def doFancySum(df: DataFrame, outPath: String)(implicit xc: ExecutionContext) = Future {
    df.agg(sum("value")).write.parquet(outPath) 
  }
}

在這個例子中,我們定義了Execution context變量xc妆兑,含有五個線程魂拦。

參考資料

Spark Parallel Job Execution
How to run concurrent jobs(actions) in Apache Spark using single spark context
Processing multiple files as independent RDD's in parallel

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市搁嗓,隨后出現(xiàn)的幾起案子芯勘,更是在濱河造成了極大的恐慌,老刑警劉巖腺逛,帶你破解...
    沈念sama閱讀 217,509評論 6 504
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件荷愕,死亡現(xiàn)場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機路翻,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,806評論 3 394
  • 文/潘曉璐 我一進店門狈癞,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人茂契,你說我怎么就攤上這事蝶桶。” “怎么了掉冶?”我有些...
    開封第一講書人閱讀 163,875評論 0 354
  • 文/不壞的土叔 我叫張陵真竖,是天一觀的道長。 經(jīng)常有香客問我厌小,道長恢共,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,441評論 1 293
  • 正文 為了忘掉前任璧亚,我火速辦了婚禮讨韭,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘癣蟋。我一直安慰自己透硝,他們只是感情好,可當我...
    茶點故事閱讀 67,488評論 6 392
  • 文/花漫 我一把揭開白布疯搅。 她就那樣靜靜地躺著濒生,像睡著了一般。 火紅的嫁衣襯著肌膚如雪幔欧。 梳的紋絲不亂的頭發(fā)上罪治,一...
    開封第一講書人閱讀 51,365評論 1 302
  • 那天,我揣著相機與錄音礁蔗,去河邊找鬼觉义。 笑死,一個胖子當著我的面吹牛瘦麸,可吹牛的內(nèi)容都是我干的谁撼。 我是一名探鬼主播,決...
    沈念sama閱讀 40,190評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼滋饲,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了喊巍?” 一聲冷哼從身側(cè)響起屠缭,我...
    開封第一講書人閱讀 39,062評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎崭参,沒想到半個月后呵曹,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,500評論 1 314
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,706評論 3 335
  • 正文 我和宋清朗相戀三年奄喂,在試婚紗的時候發(fā)現(xiàn)自己被綠了铐殃。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 39,834評論 1 347
  • 序言:一個原本活蹦亂跳的男人離奇死亡跨新,死狀恐怖富腊,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情域帐,我是刑警寧澤赘被,帶...
    沈念sama閱讀 35,559評論 5 345
  • 正文 年R本政府宣布,位于F島的核電站肖揣,受9級特大地震影響民假,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜龙优,卻給世界環(huán)境...
    茶點故事閱讀 41,167評論 3 328
  • 文/蒙蒙 一羊异、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧彤断,春花似錦野舶、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,779評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至菩浙,卻和暖如春巢掺,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背劲蜻。 一陣腳步聲響...
    開封第一講書人閱讀 32,912評論 1 269
  • 我被黑心中介騙來泰國打工陆淀, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人先嬉。 一個月前我還...
    沈念sama閱讀 47,958評論 2 370
  • 正文 我出身青樓轧苫,卻偏偏與公主長得像,于是被迫代替她去往敵國和親疫蔓。 傳聞我的和親對象是個殘疾皇子含懊,可洞房花燭夜當晚...
    茶點故事閱讀 44,779評論 2 354

推薦閱讀更多精彩內(nèi)容