1、spark-shell 提交任務以后误阻,終端超時,實際任務不退出晴埂,造成資源一直計費究反。
需要進入到spark-gateway 機器上手動kill 任務進程。
2儒洛、pyspark 之前一直使用--archives 參數(shù)精耐,將hdfs上的python環(huán)境包下載到drive,execute端執(zhí)行琅锻。
spark on k8s 后要使用--py-files , 把環(huán)境包放到oss上卦停,pyspark主程序也要放在oss 上,不能夠使用本地提交任務恼蓬。會提示找不到主程序文件惊完。