Flink1.10任務(wù)提交流程分析(二)

本文僅為筆者平日學(xué)習(xí)記錄之用屈留,侵刪
原文:https://mp.weixin.qq.com/s/MWBoBPVhiB4VgpchtR6_nQ

Flink1.10任務(wù)提交流程分析(一)中分析了從flink run開始到任務(wù)提交到集群前的流程分析憔辫,對(duì)于不同的提交模式Flink中使用不同的PipelineExecutor倒信,本篇基于yarn-per-job模式分析向yarn-cluster提交任務(wù)的流程馁筐。(注:基于1.10.1分析)

YarnJobClusterExecutor

接著上篇的分析搁进,任務(wù)最終提交是交給PipelineExecutor來execute灼舍,PipelineExecutor的選擇是根據(jù)不同的提交模式來決定即execution.target參數(shù)來決定萧福,對(duì)于yarn-per-job會(huì)選擇YarnJobClusterExecutor類型的executor。

public class YarnJobClusterExecutor extends AbstractJobClusterExecutor<ApplicationId, YarnClusterClientFactory> {
   public static final String NAME = "yarn-per-job";
   public YarnJobClusterExecutor() {
      super(new YarnClusterClientFactory());
   }
}

其實(shí)現(xiàn)比較簡(jiǎn)單擎值,比較重要其構(gòu)造器中YarnClusterClientFactory慌烧,用于創(chuàng)建YarnClusterDescriptor,包含了yarn客戶端YarnClient鸠儿、yarn配置屹蚊、提交yarn的隊(duì)列等一些提交yarn的信息。它繼承了AbstractJobClusterExecutor 抽象任務(wù)提交executor进每,execute也是由AbstractJobClusterExecutor來執(zhí)行:

public class AbstractJobClusterExecutor<ClusterID, ClientFactory extends ClusterClientFactory<ClusterID>> implements PipelineExecutor {

   private static final Logger LOG = LoggerFactory.getLogger(AbstractJobClusterExecutor.class);
   //代表的就是YarnClusterClientFactory
   private final ClientFactory clusterClientFactory;

   public AbstractJobClusterExecutor(@Nonnull final ClientFactory clusterClientFactory) {
      this.clusterClientFactory = checkNotNull(clusterClientFactory);
   }

   //執(zhí)行任務(wù)提交
   //pipeline 代表StreamGraph
   public CompletableFuture<JobClient> execute(@Nonnull final Pipeline pipeline, @Nonnull final Configuration configuration) throws Exception {
      //將StreamGraph轉(zhuǎn)換為JobGraph
      final JobGraph jobGraph = ExecutorUtils.getJobGraph(pipeline, configuration);
     //創(chuàng)建提交任務(wù)的一些信息:YarnClusterDescriptor
      try (final ClusterDescriptor<ClusterID> clusterDescriptor = clusterClientFactory.createClusterDescriptor(configuration)) {
        //將配置信息封裝在ExecutionConfigAccessor中
         final ExecutionConfigAccessor configAccessor = ExecutionConfigAccessor.fromConfiguration(configuration);
         //包含了提交任務(wù)所需資源描述:內(nèi)存大小汹粤、并行度 
         final ClusterSpecification clusterSpecification = clusterClientFactory.getClusterSpecification(configuration);
         //提交任務(wù)
         final ClusterClientProvider<ClusterID> clusterClientProvider = clusterDescriptor
               .deployJobCluster(clusterSpecification, jobGraph, 
                                 //是否采用分離模式
                                 configAccessor.getDetachedMode());
         LOG.info("Job has been submitted with JobID " + jobGraph.getJobID());

         return CompletableFuture.completedFuture(
               new ClusterClientJobClientAdapter<>(clusterClientProvider, jobGraph.getJobID()));
      }
   }
}

關(guān)于ClusterSpecification中描述了任務(wù)提交到集群所需的資源大小,對(duì)于分配模式建議詳讀一下官網(wǎng)Flink1.10的內(nèi)存管理機(jī)制便于更好的理解田晚。任務(wù)最終交給YarnClusterDescriptor deploy嘱兼。

Deploy過程

deploy過程代表了與yarn交互的過程,clusterDescriptor.deployJobCluster會(huì)調(diào)用內(nèi)部deployInternal方法:

private ClusterClientProvider<ApplicationId> deployInternal(
      ClusterSpecification clusterSpecification,
      String applicationName,
      String yarnClusterEntrypoint,
      @Nullable JobGraph jobGraph,
      boolean detached) throws Exception {
    //..... 會(huì)做一些檢查工作: yarn隊(duì)列是否存在贤徒、配置檢查
    //校驗(yàn)資源大小等等
   ApplicationReport report = startAppMaster(
         flinkConfiguration,
         applicationName,
         yarnClusterEntrypoint,
         jobGraph,
         yarnClient,
         yarnApplication,
         validClusterSpecification);

   //....
}

最重的就是startAppMaster芹壕,在yarn上啟動(dòng)一個(gè)AppMaster進(jìn)程,其中yarnClusterEntrypoint表示該進(jìn)程的入口類接奈,也就是JobMaster的啟動(dòng)入口類:org.apache.flink.yarn.entrypoint.YarnJobClusterEntrypoint踢涌, 在集群的機(jī)器進(jìn)程上也能看到該類,如果看到這個(gè)進(jìn)程我們就可知道表示的是JobMaster的進(jìn)程序宦。startAppMaster的過程比較長(zhǎng)睁壁,這里也會(huì)逐一分解:

private ApplicationReport startAppMaster(
      Configuration configuration,
      String applicationName,
      String yarnClusterEntrypoint,
      JobGraph jobGraph,
      YarnClient yarnClient,
      YarnClientApplication yarnApplication,
      ClusterSpecification clusterSpecification) throws Exception {

   // ------------------ Initialize the file systems -------------------------

   org.apache.flink.core.fs.FileSystem.initialize(
         configuration,
         PluginUtils.createPluginManagerFromRootFolder(configuration));

   //獲取homeDir, 表示jar挨厚、log配置上傳的路徑堡僻, 一般表示在hdfs上
   //其路徑為/user/hadoop, (hadoop表示的當(dāng)前的用戶)
   final FileSystem fs = FileSystem.get(yarnConfiguration);
   final Path homeDir = fs.getHomeDirectory();
   //提交到y(tǒng)arn的描述信息
   ApplicationSubmissionContext appContext = yarnApplication.getApplicationSubmissionContext();
   // 會(huì)被上傳到hdfs的文件 并且被添加到classpath中
   Set<File> systemShipFiles = new HashSet<>(shipFiles.size());
   // 僅僅是會(huì)被上傳到hdfs , 但是不會(huì)被添加到classpath
   Set<File> shipOnlyFiles = new HashSet<>();
   for (File file : shipFiles) {
      systemShipFiles.add(file.getAbsoluteFile());
   }

   final String logConfigFilePath = configuration.getString(YarnConfigOptionsInternal.APPLICATION_LOG_CONFIG_FILE);
   if (logConfigFilePath != null) {
      systemShipFiles.add(new File(logConfigFilePath));
   }
   //將flink_home/lib 下的文件添加到systemShipFiles、通過-yt指定的文件也在里面
   addLibFoldersToShipFiles(systemShipFiles);

   //將flink_home/plugins 下的文件添加到shipOnlyFiles
   addPluginsFoldersToShipFiles(shipOnlyFiles);

   final ApplicationId appId = appContext.getApplicationId();

   // zk-ha相關(guān)的配置
   String zkNamespace = getZookeeperNamespace();
   // no user specified cli argument for namespace?
   if (zkNamespace == null || zkNamespace.isEmpty()) {
      // namespace defined in config? else use applicationId as default.
      zkNamespace = configuration.getString(HighAvailabilityOptions.HA_CLUSTER_ID, String.valueOf(appId));
      setZookeeperNamespace(zkNamespace);
   }

   configuration.setString(HighAvailabilityOptions.HA_CLUSTER_ID, zkNamespace);

   if (HighAvailabilityMode.isHighAvailabilityModeActivated(configuration)) {
      // activate re-execution of failed applications
      appContext.setMaxAppAttempts(
            configuration.getInteger(
                  YarnConfigOptions.APPLICATION_ATTEMPTS.key(),
                  YarnConfiguration.DEFAULT_RM_AM_MAX_ATTEMPTS));

      activateHighAvailabilitySupport(appContext);
   } else {
      // set number of application retries to 1 in the default case
      appContext.setMaxAppAttempts(
            configuration.getInteger(
                  YarnConfigOptions.APPLICATION_ATTEMPTS.key(),
                  1));
   }

  //userJarFiles  表示用戶jar
   final Set<File> userJarFiles = (jobGraph == null)
         // not per-job submission
         ? Collections.emptySet()
         // add user code jars from the provided JobGraph
         : jobGraph.getUserJars().stream().map(f -> f.toUri()).map(File::new).collect(Collectors.toSet());

   //需要cache文件上傳到hdfs疫剃,一般使用在文件共享中
   if (jobGraph != null) {
      for (Map.Entry<String, DistributedCache.DistributedCacheEntry> entry : jobGraph.getUserArtifacts().entrySet()) {
         org.apache.flink.core.fs.Path path = new org.apache.flink.core.fs.Path(entry.getValue().filePath);
         // only upload local files
         if (!path.getFileSystem().isDistributedFS()) {
            Path localPath = new Path(path.getPath());
            Tuple2<Path, Long> remoteFileInfo =
               Utils.uploadLocalFileToRemote(fs, appId.toString(), localPath, homeDir, entry.getKey());
            jobGraph.setUserArtifactRemotePath(entry.getKey(), remoteFileInfo.f0.toString());
         }
      }

      jobGraph.writeUserArtifactEntriesToConfiguration();
   }

   //表示啟動(dòng)appMaster需要的資源文件钉疫,會(huì)從hdfs上下載
   final Map<String, LocalResource> localResources = new HashMap<>(2 + systemShipFiles.size() + userJarFiles.size());
   // 訪問hdfs的安全設(shè)置
   final List<Path> paths = new ArrayList<>(2 + systemShipFiles.size() + userJarFiles.size());
   // 啟動(dòng)taskExecutor需要的資源文件
   StringBuilder envShipFileList = new StringBuilder();

   //幾個(gè)uploadAndRegisterFiles  方法,將systemShipFiles巢价、shipOnlyFiles牲阁、用戶jar上傳到hdfs

   if (userJarInclusion == YarnConfigOptions.UserJarInclusion.ORDER) {
      systemClassPaths.addAll(userClassPaths);
   }

   // normalize classpath by sorting
   Collections.sort(systemClassPaths); //系統(tǒng)的一些classpath 排序
   Collections.sort(userClassPaths); //用戶classpath 排序

   // classPathBuilder: 存放classpath的信息
   StringBuilder classPathBuilder = new StringBuilder();
     /*
      * 構(gòu)建classpath: shipFile-jar、user-jar壤躲、log4j城菊、yaml配置文件
      */

   final Path yarnFilesDir = getYarnFilesDir(appId);
   FsPermission permission = new FsPermission(FsAction.ALL, FsAction.NONE, FsAction.NONE);
   fs.setPermission(yarnFilesDir, permission); // set permission for path.

   /*
    *中間一堆與安全相關(guān)的配置
    */

  //執(zhí)行的java命令信息,啟動(dòng)YarnJobClusterEntrypoint 
   final ContainerLaunchContext amContainer = setupApplicationMasterContainer(
         yarnClusterEntrypoint,
         hasLogback,
         hasLog4j,
         hasKrb5,
         clusterSpecification.getMasterMemoryMB());

   if (UserGroupInformation.isSecurityEnabled()) {
      // set HDFS delegation tokens when security is enabled
      LOG.info("Adding delegation token to the AM container.");
      Utils.setTokensFor(amContainer, paths, yarnConfiguration);
   }

   amContainer.setLocalResources(localResources);
   fs.close();

   // Setup CLASSPATH and environment variables for ApplicationMaster
   final Map<String, String> appMasterEnv = new HashMap<>();
   /**
    * 配置環(huán)境變量參數(shù)  到  appMasterEnv中碉克,在啟動(dòng)啟動(dòng)YarnJobClusterEntrypoint時(shí)用到凌唬,
    * 例如:classpath、hadoopUser漏麦、appId等
    */

   amContainer.setEnvironment(appMasterEnv);

    // 還有一堆設(shè)置提交任務(wù)隊(duì)列客税、yarn任務(wù)名稱的配置信息

   // add a hook to clean up in case deployment fails
   Thread deploymentFailureHook = new DeploymentFailureHook(yarnApplication, yarnFilesDir);
   Runtime.getRuntime().addShutdownHook(deploymentFailureHook);
   LOG.info("Submitting application master " + appId);
   //提交任務(wù)  
   yarnClient.submitApplication(appContext);

   /**
    *  獲取任務(wù)狀態(tài)
    */
}

這部分的流程比較長(zhǎng)况褪,總結(jié)一下主要有以下幾點(diǎn):

  1. 將shipFiles、plugins更耻、userJar测垛、logFile、flink-conf.yaml秧均、job.graph等文件上傳到hdfs

  2. 構(gòu)建啟動(dòng)需要的classpath食侮、ha-zk配置、安全配置目胡、jobMaster啟動(dòng)命令等

  3. 向yarn提交任務(wù)

在yarn上啟動(dòng)成功后锯七,在JobMaster的工作目錄可以看到launch_container.sh這樣的一個(gè)文件,這個(gè)文件里面包含了在startAppMaster所做的所有環(huán)境變量參數(shù)設(shè)置讶隐、啟動(dòng)命令起胰。

總結(jié)

本篇主要介紹了yarn-per-job的任務(wù)提交流程久又,結(jié)合前面兩篇的分析巫延,到現(xiàn)在應(yīng)該掌握了如何通過API的方式去實(shí)現(xiàn)任務(wù)的提交,我認(rèn)為重要有兩點(diǎn):一是做好參數(shù)的解析地消、配置炉峰,二是選擇一個(gè)合適的PipelineExecutor提交任務(wù)。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末脉执,一起剝皮案震驚了整個(gè)濱河市疼阔,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌半夷,老刑警劉巖婆廊,帶你破解...
    沈念sama閱讀 211,123評(píng)論 6 490
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異巫橄,居然都是意外死亡淘邻,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,031評(píng)論 2 384
  • 文/潘曉璐 我一進(jìn)店門湘换,熙熙樓的掌柜王于貴愁眉苦臉地迎上來宾舅,“玉大人,你說我怎么就攤上這事彩倚〕镂遥” “怎么了?”我有些...
    開封第一講書人閱讀 156,723評(píng)論 0 345
  • 文/不壞的土叔 我叫張陵帆离,是天一觀的道長(zhǎng)蔬蕊。 經(jīng)常有香客問我,道長(zhǎng)哥谷,這世上最難降的妖魔是什么岸夯? 我笑而不...
    開封第一講書人閱讀 56,357評(píng)論 1 283
  • 正文 為了忘掉前任概而,我火速辦了婚禮,結(jié)果婚禮上囱修,老公的妹妹穿的比我還像新娘赎瑰。我一直安慰自己,他們只是感情好破镰,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,412評(píng)論 5 384
  • 文/花漫 我一把揭開白布餐曼。 她就那樣靜靜地躺著,像睡著了一般鲜漩。 火紅的嫁衣襯著肌膚如雪源譬。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 49,760評(píng)論 1 289
  • 那天孕似,我揣著相機(jī)與錄音踩娘,去河邊找鬼。 笑死喉祭,一個(gè)胖子當(dāng)著我的面吹牛养渴,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播泛烙,決...
    沈念sama閱讀 38,904評(píng)論 3 405
  • 文/蒼蘭香墨 我猛地睜開眼理卑,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來了蔽氨?” 一聲冷哼從身側(cè)響起藐唠,我...
    開封第一講書人閱讀 37,672評(píng)論 0 266
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎鹉究,沒想到半個(gè)月后宇立,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 44,118評(píng)論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡自赔,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,456評(píng)論 2 325
  • 正文 我和宋清朗相戀三年妈嘹,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片匿级。...
    茶點(diǎn)故事閱讀 38,599評(píng)論 1 340
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡蟋滴,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出痘绎,到底是詐尸還是另有隱情津函,我是刑警寧澤,帶...
    沈念sama閱讀 34,264評(píng)論 4 328
  • 正文 年R本政府宣布孤页,位于F島的核電站尔苦,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜允坚,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,857評(píng)論 3 312
  • 文/蒙蒙 一魂那、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧稠项,春花似錦涯雅、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,731評(píng)論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至拗胜,卻和暖如春蔗候,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背埂软。 一陣腳步聲響...
    開封第一講書人閱讀 31,956評(píng)論 1 264
  • 我被黑心中介騙來泰國(guó)打工锈遥, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人勘畔。 一個(gè)月前我還...
    沈念sama閱讀 46,286評(píng)論 2 360
  • 正文 我出身青樓所灸,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親咖杂。 傳聞我的和親對(duì)象是個(gè)殘疾皇子庆寺,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,465評(píng)論 2 348