bin/hadoop ?fs ? == ? sbin/hdfs ?dfs ?(這兩個開頭都可以,基本一樣)
打開namenode,datanode
$sbin/start-dfs.sh (啟動配置好的hdfs所有節(jié)點服務)
打開yarn
$sbin/start-yarn.sh? ?(啟動配置好的yarn所有節(jié)點服務)
打開日志服務
$sbin/mr-jobhistory-daemon.sh ? start ?historyserver
在hdfs內創(chuàng)建上傳和輸出文件(可在50070下查看贾漏,忘記截圖就算了)
$bin/hdfs dfs -mkdir -p ?/user/hadoop/data
$bin/hdfs dfs -mkdir -p ?/user/hadoop/output/
上傳文件(bin/hdfs dfs -put ?文件地址 ? hdfs地址)
$bin/hdfs dfs -put ?/home/data/h.txt ? /user/hadoop/data/
運行wordcount(輸出目錄需新建)
$bin/yarn ?jar ?share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar ? ?wordcount ?/user/hadoop/data/h.txt ? ?/user/hadoop/output/01
查看輸出結果(part* ----只有一個開頭為part的文件,所以直接顯示全部)
$bin/hdfs dfs -text ?/user/hadoop/output/01/part*
界面顯示的全都忘記截圖了歧寺,尷尬如你我他(localhost:50070)(localhost:8088)