Azkaban各種類(lèi)型的Job編寫(xiě)

一情臭、概述

原生的 Azkaban 支持的plugin類(lèi)型有以下這些:

  1. command:Linux shell命令行任務(wù)
  2. gobblin:通用數(shù)據(jù)采集工具
  3. hadoopJava:運(yùn)行hadoopMR任務(wù)
  4. java:原生java任務(wù)
  5. hive:支持執(zhí)行hiveSQL
  6. pig:pig腳本任務(wù)
  7. spark:spark任務(wù)
  8. hdfsToTeradata:把數(shù)據(jù)從hdfs導(dǎo)入Teradata
  9. teradataToHdfs:把數(shù)據(jù)從Teradata導(dǎo)入hdfs

其中最簡(jiǎn)單而且最常用的是command類(lèi)型,我們?cè)谏弦黄恼轮幸呀?jīng)描述了如何編寫(xiě)一個(gè)command的job任務(wù)叶组。所以我們把重點(diǎn)放到Azkaban支持的比較常用的四種類(lèi)型:java、hadoopJava朴则、hive人乓、spark

二、java類(lèi)型

1绿满、代碼編寫(xiě):MyJavaJob.java

package com.dataeye.java;

public class MyJavaJob {

    public static void main(String[] args) {
        System.out.println("#################################");
        System.out.println("####  MyJavaJob class exec... ###");
        System.out.println("#################################");
    }

}

2、打包成jar文件:使用maven或者eclipse導(dǎo)出為jar文件

3窟扑、編寫(xiě)job文件:java.job

type=javaprocess

classpath=./lib/*,${azkaban.home}/lib/*

java.class=com.dataeye.java.MyJavaJob

4喇颁、組成一個(gè)完整的運(yùn)行包
新建一個(gè)目錄,在該目錄下創(chuàng)建一個(gè)lib文件夾嚎货,把第二步打包的jar文件放到這里橘霎,把job文件放到和lib文件夾同一級(jí)的目錄下,如下所示:

image

5殖属、打包成zip文件

把lib目錄和job文件打包成zip文件姐叁,如下的java.zip:

image

6、提交運(yùn)行洗显,過(guò)程跟之前文章介紹的步驟一樣外潜,不再詳述,執(zhí)行結(jié)果如下:

image

從輸出日志可以看出挠唆,代碼已經(jīng)正常執(zhí)行处窥。

以上是java類(lèi)型的任務(wù)編寫(xiě)和執(zhí)行的過(guò)程。接下來(lái)介紹其他任務(wù)編寫(xiě)的時(shí)候玄组,只會(huì)介紹代碼的編寫(xiě)和job的編寫(xiě)滔驾,其他過(guò)程與上面的一致。

三俄讹、hadoopJava類(lèi)型

1哆致、數(shù)據(jù)準(zhǔn)備

以下內(nèi)容是運(yùn)行wordcount任務(wù)時(shí)需要的輸入文件input.txt:

1   Ross    male    33  3674
2   Julie   male    42  2019
3   Gloria  female  45  3567
4   Carol   female  36  2813
5   Malcolm male    42  2856
6   Joan    female  22  2235
7   Niki    female  27  3682
8   Betty   female  20  3001
9   Linda   male    21  2511
10  Whitney male    35  3075
11  Lily    male    27  3645
12  Fred    female  39  2202
13  Gary    male    28  3925
14  William female  38  2056
15  Charles male    48  2981
16  Michael male    25  2606
17  Karl    female  32  2260
18  Barbara male    39  2743
19  Elizabeth   female  26  2726
20  Helen   female  47  2457
21  Katharine   male    45  3638
22  Lee female  43  3050
23  Ann male    35  2874
24  Diana   male    37  3929
25  Fiona   female  45  2955
26  Bob female  21  3382
27  John    male    48  3677
28  Thomas  female  22  2784
29  Dean    male    38  2266
30  Paul    female  31  2679

把input.txt文件拷貝到hdfs的 /data/yann/input 目錄下

2、代碼準(zhǔn)備:

package azkaban.jobtype.examples.java;

import azkaban.jobtype.javautils.AbstractHadoopJob;
import azkaban.utils.Props;
import java.io.IOException;
import java.util.Iterator;
import java.util.StringTokenizer;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapred.FileInputFormat;
import org.apache.hadoop.mapred.FileOutputFormat;
import org.apache.hadoop.mapred.JobConf;
import org.apache.hadoop.mapred.MapReduceBase;
import org.apache.hadoop.mapred.Mapper;
import org.apache.hadoop.mapred.OutputCollector;
import org.apache.hadoop.mapred.Reducer;
import org.apache.hadoop.mapred.Reporter;
import org.apache.hadoop.mapred.TextInputFormat;
import org.apache.hadoop.mapred.TextOutputFormat;
import org.apache.log4j.Logger;

public class WordCount extends AbstractHadoopJob
{
  private static final Logger logger = Logger.getLogger(WordCount.class);
  private final String inputPath;
  private final String outputPath;
  private boolean forceOutputOverrite;

  public WordCount(String name, Props props)
  {
    super(name, props);
    this.inputPath = props.getString("input.path");
    this.outputPath = props.getString("output.path");
    this.forceOutputOverrite = props.getBoolean("force.output.overwrite", false);
  }

  public void run()
    throws Exception
  {
    logger.info(String.format("Starting %s", new Object[] { getClass().getSimpleName() }));

    JobConf jobconf = getJobConf();
    jobconf.setJarByClass(WordCount.class);

    jobconf.setOutputKeyClass(Text.class);
    jobconf.setOutputValueClass(IntWritable.class);

    jobconf.setMapperClass(Map.class);
    jobconf.setReducerClass(Reduce.class);

    jobconf.setInputFormat(TextInputFormat.class);
    jobconf.setOutputFormat(TextOutputFormat.class);

    FileInputFormat.addInputPath(jobconf, new Path(this.inputPath));
    FileOutputFormat.setOutputPath(jobconf, new Path(this.outputPath));

    if (this.forceOutputOverrite)
    {
      FileSystem fs = FileOutputFormat.getOutputPath(jobconf).getFileSystem(jobconf);
      fs.delete(FileOutputFormat.getOutputPath(jobconf), true);
    }

    super.run();
  }

  public static class Map extends MapReduceBase
    implements Mapper<LongWritable, Text, Text, IntWritable>
  {
    private static final IntWritable one = new IntWritable(1);
    private Text word = new Text();

    private long numRecords = 0L;

    public void map(LongWritable key, Text value, OutputCollector<Text, IntWritable> output, Reporter reporter) throws IOException
    {
      String line = value.toString();
      StringTokenizer tokenizer = new StringTokenizer(line);
      while (tokenizer.hasMoreTokens()) {
        this.word.set(tokenizer.nextToken());
        output.collect(this.word, one);
        reporter.incrCounter(Counters.INPUT_WORDS, 1L);
      }

      if (++this.numRecords % 100L == 0L)
        reporter.setStatus("Finished processing " + this.numRecords + " records " + "from the input file");
    }

    static enum Counters
    {
      INPUT_WORDS;
    }
  }

  public static class Reduce extends MapReduceBase
    implements Reducer<Text, IntWritable, Text, IntWritable>
  {
    public void reduce(Text key, Iterator<IntWritable> values, OutputCollector<Text, IntWritable> output, Reporter reporter)
      throws IOException
    {
      int sum = 0;
      while (values.hasNext()) {
        sum += ((IntWritable)values.next()).get();
      }
      output.collect(key, new IntWritable(sum));
    }
  }
}

3患膛、編寫(xiě)job文件

wordcount.job文件內(nèi)容如下:

type=hadoopJava

job.extend=false

job.class=azkaban.jobtype.examples.java.WordCount

classpath=./lib/*,${azkaban.home}/lib/*

force.output.overwrite=true

input.path=/data/yann/input

output.path=/data/yann/output

這樣hadoopJava類(lèi)型的任務(wù)已經(jīng)完成沽瞭,打包提交到Azkaban中執(zhí)行即可

四、hive類(lèi)型

1、編寫(xiě) hive.sql文件

use azkaban;

INSERT OVERWRITE TABLE 
 user_table1 PARTITION (day_p='2017-02-08') 
SELECT appid,uid,country,province,city 
 FROM user_table0 where adType=1;

以上是標(biāo)準(zhǔn)的hive的sql腳本驹溃,首先切換到azkaban數(shù)據(jù)庫(kù),然后把user_table0 的數(shù)據(jù)插入到user_table1 表的指定day_p分區(qū)延曙。需要先準(zhǔn)備好 user_table0 和 user_table1 表結(jié)構(gòu)和數(shù)據(jù)豌鹤。

編寫(xiě)完成后,把文件放入 res 文件夾中枝缔。

2布疙、編寫(xiě)hive.job文件

type=hive

user.to.proxy=azkaban

classpath=./lib/*,${azkaban.home}/lib/*

azk.hive.action=execute.query

hive.script=res/hive.sql

關(guān)鍵的參數(shù)是 hive.script,該參數(shù)指定使用的sql腳本在 res目錄下的hive.sql文件

五愿卸、spark類(lèi)型

spark任務(wù)有兩種運(yùn)行方式灵临,一種是command類(lèi)型,另一種是spark類(lèi)型

首先準(zhǔn)備好spark任務(wù)的代碼

package com.dataeye.template.spark

import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.sql.{SQLContext}

object WordCount {
  def main(args: Array[String]) {
    if (args.length < 1) {
      System.err.println("Usage:WordCount <hdfs_file>")
      System.exit(1)
    }

    System.out.println("get first param ==> " + args(0))
    System.out.println("get second param ==> " + args(1))

    /** spark 2.0的方式
      * val spark = SparkSession.builder().appName("WordCount").getOrCreate()
      */
    val sc = new SparkContext(new SparkConf().setAppName("WordCount"))
    val spark = new SQLContext(sc)
    val file = spark.sparkContext.textFile(args(0))
    val wordCounts = file.flatMap(line => line.split(" ")).map(word => (word, 1)).reduceByKey(_ + _)
    // 數(shù)據(jù)collect 到driver端打印
    wordCounts.collect().foreach(println _)
  }
}

然后準(zhǔn)備數(shù)據(jù)趴荸,數(shù)據(jù)就使用前面hadoopJava中的數(shù)據(jù)即可儒溉。

最后打包成jar文件:spark-template-1.0-SNAPSHOT.jar

1、command類(lèi)型

command類(lèi)型的配置方式比較簡(jiǎn)單发钝,spark.job文件如下:

type=command

command=${spark.home}/bin/spark-submit --master yarn-cluster --class com.dataeye.template.spark.WordCount lib/spark-template-1.0-SNAPSHOT.jar   hdfs://de-hdfs/data/yann/info.txt   paramtest

2顿涣、spark類(lèi)型

type=spark

master=yarn-cluster
execution-jar=lib/spark-template-1.0-SNAPSHOT.jar
class=com.dataeye.template.spark.WordCount
params=hdfs://de-hdfs/data/yann/info.txt  paramtest

以上就是Azkaban支持的幾種常用的任務(wù)類(lèi)型。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末酝豪,一起剝皮案震驚了整個(gè)濱河市涛碑,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌孵淘,老刑警劉巖蒲障,帶你破解...
    沈念sama閱讀 216,651評(píng)論 6 501
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異瘫证,居然都是意外死亡揉阎,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,468評(píng)論 3 392
  • 文/潘曉璐 我一進(jìn)店門(mén)痛悯,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)余黎,“玉大人,你說(shuō)我怎么就攤上這事载萌【宀疲” “怎么了?”我有些...
    開(kāi)封第一講書(shū)人閱讀 162,931評(píng)論 0 353
  • 文/不壞的土叔 我叫張陵扭仁,是天一觀的道長(zhǎng)垮衷。 經(jīng)常有香客問(wèn)我,道長(zhǎng)乖坠,這世上最難降的妖魔是什么搀突? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 58,218評(píng)論 1 292
  • 正文 為了忘掉前任,我火速辦了婚禮熊泵,結(jié)果婚禮上仰迁,老公的妹妹穿的比我還像新娘甸昏。我一直安慰自己,他們只是感情好徐许,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,234評(píng)論 6 388
  • 文/花漫 我一把揭開(kāi)白布施蜜。 她就那樣靜靜地躺著,像睡著了一般雌隅。 火紅的嫁衣襯著肌膚如雪翻默。 梳的紋絲不亂的頭發(fā)上,一...
    開(kāi)封第一講書(shū)人閱讀 51,198評(píng)論 1 299
  • 那天恰起,我揣著相機(jī)與錄音修械,去河邊找鬼。 笑死检盼,一個(gè)胖子當(dāng)著我的面吹牛肯污,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播梯皿,決...
    沈念sama閱讀 40,084評(píng)論 3 418
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼仇箱,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了东羹?” 一聲冷哼從身側(cè)響起剂桥,我...
    開(kāi)封第一講書(shū)人閱讀 38,926評(píng)論 0 274
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎属提,沒(méi)想到半個(gè)月后权逗,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,341評(píng)論 1 311
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡冤议,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,563評(píng)論 2 333
  • 正文 我和宋清朗相戀三年斟薇,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片恕酸。...
    茶點(diǎn)故事閱讀 39,731評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡堪滨,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出蕊温,到底是詐尸還是另有隱情袱箱,我是刑警寧澤,帶...
    沈念sama閱讀 35,430評(píng)論 5 343
  • 正文 年R本政府宣布义矛,位于F島的核電站发笔,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏凉翻。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,036評(píng)論 3 326
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望前计。 院中可真熱鬧胞谭,春花似錦、人聲如沸残炮。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 31,676評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)势就。三九已至,卻和暖如春脉漏,著一層夾襖步出監(jiān)牢的瞬間苞冯,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 32,829評(píng)論 1 269
  • 我被黑心中介騙來(lái)泰國(guó)打工侧巨, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留舅锄,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 47,743評(píng)論 2 368
  • 正文 我出身青樓司忱,卻偏偏與公主長(zhǎng)得像皇忿,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子坦仍,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,629評(píng)論 2 354

推薦閱讀更多精彩內(nèi)容