您好,登錄后才能下訂單哦!
一、首先把hadoop二進制包和jdk的文件包download下來,并放置到合適目錄的路徑來解壓(步驟省略)
二、在主機器上的hadoop解壓出來的目錄創建一個目錄是專門放置hdfs的文件,把解壓好的jdk包傳去從的機器那
三、添加環境變量
設置JDK的環境變量 JAVA_HOME。需要修改配置文件/etc/profile最后來追加一下內容:
export JAVA_HOME=/usr/local/src/jdk1.6.0_45
#export JRE_HOME=$JAVA_HOME/jre
export PATH=$JAVE_HOME/bin:$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/lib
修改完畢后,執行 source /etc/profile
執行 java –version,可以看見已經安裝完成。
[root@spark ~]# java -version
java version "1.6.0_45"
Java(TM) SE Runtime Environment (build 1.6.0_45-b06)
Java HotSpot(TM) 64-Bit Server VM (build 20.45-b01, mixed mode)
四、修改好/etc/hosts和/etc/sysconfig/network(一主兩從)
五、部署好公鑰,然后cat id_rsa.pub >> authorized_keys
六、把hosts、authorized_keys文件和/etc/profile傳過去從的機器。
七、編輯hadoop的文件
在hadoop/conf里的hadoop_env.sh最后那里添加java環境變量的位置
export JAVA_HOME=/usr/local/src/jdk1.6.0_45
八、把已經主機配置好的hadoop,整個目錄scp到從的機器那里
九、在主機上hadoop的bin目錄執行:
① ./hadoop namenode -format
② ./start-all.sh
十、檢查一下hadoop環境有沒問題
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。