您好,登錄后才能下訂單哦!
#關閉防火墻
service iptablesstop
1:安裝JDK
1.1上傳jdk-7u_65-i585.tar.gz
1.2解壓jdk
#創建文件夾
mkdir /home/hadoop/app
#解壓
tar -zxvf jdk-7u55-linux-i586.tar.gz -C /home/hadoop/app
1.3將java添加到環境變量中
sudo vim /etc/profile
#在文件最后添加
export JAVA_HOME=/home/hadoop/app/jdk-7u_65-i585
export PATH=$PATH:$JAVA_HOME/bin
#刷新配置
source /etc/profile
2:安裝hadoop2.4.1
注意:hadoop2.x的配置文件$HADOOP_HOME/etc/hadoop
偽分布式需要修改5個配置文件
2.1配置hadoop /home/hadoop/app/hadoop-2.4.1/etc/hadoop
第一個:hadoop-env.sh
vim hadoop-env.sh
#第27行
export JAVA_HOME=/home/hadoop/app/jdk1.7.0_65
第二個:core-site.xml
fs.defaultFS
hdfs://weekend-1206-01(主機名):9000
hadoop.tmp.dir
/home/hadoop/app/hadoop-2.4.1/data
第三個:hdfs-site.xml hdfs-default.xml (3)
dfs.replication
1
第四個:mapred-site.xml (mv mapred-site.xml.templatemapred-site.xml)
mv mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
mapreduce.framework.name
yarn
第五個:yarn-site.xml
yarn.resourcemanager.hostname
weekend-1206-01(主機名)
yarn.nodemanager.aux-services
mapreduce_shuffle
3:啟動hadoop
3.1:將hadoop添加到環境變量 vim /etc/proflie
export JAVA_HOME=/usr/java/jdk1.7.0_65
exportHADOOP_HOME=/home/hadoop/app/hadoop-2.4.1
exportPATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
#source /etc/profile
3.2: 格式化namenode(是對namenode進行初始化)
#hadoop namenode-format
3.3:啟動 /home/hadoop/app/hadoop-2.4.1/sbin
先啟動HDFS
#start-dfs.sh
再啟動YARN
#start-yarn.sh
使用jps命令驗證
#jps
【注:做集群時在vim/home/hadoop/app/hadoop-2.4.1/etc/hadoop/slaves添加相應的主機名】
4:瀏覽器訪問:
http://ip:50070 (HDFS管理界面)
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。