配置hadoop:
第一個(gè):hadoop-env.sh
export JAVA_HOME=/usr/java/jdk1.7.0_65
選擇修改日志文件目錄(默認(rèn)目錄內(nèi)日志文件太多易混):
export HADOOP_LOG_DIR=/var/log/hadoop
第二個(gè):core-site.xml
fs.defaultFS
hdfs://主機(jī)名:9000
hadoop.tmp.dir
/home/hadoop/hadoop-2.4.1/tmp
io.file.buffer.size
131072
第三個(gè):hdfs-site.xml
dfs.namenode.secondary.http-address
JD:9001
dfs.namenode.name.dir
file:/usr/local/hadoop-2.4.1/dfs/name
dfs.datanode.data.dir
file:/usr/local/hadoop-2.4.1/dfs/data
dfs.replication
1
dfs.webhdfs.enabled
true
dfs.namenode.datanode.registration.ip-hostname-check
false
?
dfs.permissions?
false?
第四個(gè):mapred-site.xml (mv mapred-site.xml.template mapred-site.xml)
mapreduce.framework.name
yarn
mapreduce.jobhistory.address
JD:10020
mapreduce.jobhistory.webapp.address
JD:19888
第五個(gè):yarn-site.xml
yarn.resourcemanager.hostname
主機(jī)名
yarn.nodemanager.aux-services
mapreduce_shuffle
?格式化namenode(首次啟動(dòng)需要先格式化啼器,不然無(wú)法啟動(dòng)namenode)
hdfs namenode -format (hadoop namenode -format)
http://192.168.74.141:50070 (HDFS管理界面)
http://192.168.74.141:8088 (MR管理界面)
?常見問(wèn)題:
1.使用命令上傳無(wú)法成功上傳文件因宇,檢查到dfs.replication誤設(shè)為0;
2.使用eclipse 上傳文件寿羞,hdfs中只有文件名济似,大小為0矫废,未上傳成功盏缤,連接datanode失敗
喜歡的朋友不妨關(guān)注我前十即送hadoop全套資料!