您好,登錄后才能下訂單哦!
一、配置虛擬機三臺
1.網絡配置
虛擬化軟件: Vmware Workstations 10.7z
Linux系統: Centos 6.5-x86_64
采用4臺安裝Linux環境的機器來構建一個小規模的分布式集群。
集群機器詳細信息
1.虛擬化的網絡配置方式:橋接網絡
2.IP地址設置為固定IP地址
3.主機名配置,需要修改一下地方
(1)配置vi /etc/hostname
(2)配置vi /etc/sysconfig/network
(3)配置vi /etc/hosts
4.關閉防火墻
1) 重啟后生效
開啟: chkconfig iptables on
關閉: chkconfig iptables off
2) 即時生效,重啟后失效
開啟: service iptables start
關閉: service iptables stop
配置完成后效果:
三個節點相互ping通
主機名可以正常解析
可以正常ping通外網
2. JAVA系統環境配置
Java的安裝
Rpm -qa| grep java 查看系統已安裝的java
卸載已安裝的java
rpm -e –nodeps (包名稱)
配置環境變量 vi /etc/profile
#set java environment
export JAVA_HOME=/usr/java/jdk1.8.0_77
export JRE_HOME=/usr/java/jdk1.8.0_77/jre
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
配置完成后效果為:
3.節點之間的無密碼登錄
SSH設置需要在集群上做不同的操作,如啟動,停止,分布式守護shell操作。認證不同的Hadoop用戶,需要一種用于Hadoop用戶提供的公鑰/私鑰對,并用不同的用戶共享。
下面的命令用于生成使用SSH鍵值對。復制公鑰形成 id_rsa.pub 到authorized_keys 文件中,并提供擁有者具有authorized_keys文件的讀寫權限。
命令: ssh-keygen -t rsa
命令:cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
在其他節點上同樣命令后,把所有節點的 id_rsa.pub 內容添加到authorized_keys,然后將authorized_keys 分發到所有節點的/.ssh/目錄下
配置完成后效果為:
二、Hadoop配置安裝
本文檔的Hadoop版本為:hadoop-2.6.4.tar.gz
1.在Namenode節點上進行以下配置
下載 Hadoop 以后,可以操作Hadoop集群以以下三個支持模式之一:
本地/獨立模式:下載Hadoop在系統中,默認情況下之后,它會被配置在一個獨立的模式,用于運行Java程序。
模擬分布式模式:這是在單臺機器的分布式模擬。Hadoop守護每個進程,如 hdfs, yarn, MapReduce 等,都將作為一個獨立的java程序運行。這種模式對開發非常有用.
完全分布式模式:這種模式是完全分布式的最小兩臺或多臺計算機的集群。我們使用這種模式在未來的章節中。
(1)文件 core-site.xml 改為下面的配置:
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.1.220:9000</value>
</property>
<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>192.168.1.220</value>
</property>
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>
(2)文件 hdfs-site.xml改為下面的配置:
<property>
<name>dfs.name.dir</name>
<value>/usr/hadoop/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/usr/hadoop/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.support.append</name>
<value>true</value>
</property>
<property>
<name>dfs.datanode.address</name>
<value>0.0.0.0:50110</value>
</property>
(3)文件 mapred-site.xml 改為下面的配置:
<property>
<name>mapred.job.tracker</name>
<value>http://192.168.1.220:9001</value>
</property>
<property>
<name>mapried.local.dir</name>
<value>/usr/hadoop/var</value>
</property>
(4)文件slaves改為下面的配置:
Master-Hadoop
Slave1-Hadoop
Slave2-Hadoop
(5)文件hadoop-env.sh改為下面的配置:
# The java implementation to use.
export JAVA_HOME=/usr/java/jdk1.8.0_77
2.在/usr/hadooop/下創新配置中的文件夾
Mkdir tmp
Mkdir logs
Mkdir data
3.hadoop命令操作
(1)使用命令 hdfs namenode –format 如下設置名稱節點
(2)啟動命令 /usr/Hadoop/etc/Hadoop/start-all.sh
(3)查看節點狀態 Hadoop dfsadmin -report
4.網頁節點顯示
http://Master-Hadoop:50070
http:// Master-Hadoop:8088
參考網址:
http://itindex.net/detail/46949-wordcount
http://www.cnblogs.com/scotoma/archive/2012/09/18/2689902.html
http://dblab.xmu.edu.cn/blog/install-hadoop-cluster/
http://192.168.1.200:50070/dfshealth.html#tab-datanode
http://www.tuicool.com/articles/veim6bU
http://my.oschina.net/u/570654/blog/112780
http://blog.csdn.net/ab198604/article/details/8271860
http://www.cnblogs.com/shishanyuan/category/709023.html
http://zhidao.baidu.com/link?url=K6w-swVrs7VtvcG8iF1UgQ4dBk3e7YCHoRwA3kjcA3D4fiE2RYdKQNN5h9NJCgg7z5HEvyu7Gyt1jLe7-UMvmGbRoISDTIN6MkcVPM2vbOa
http://blog.csdn.net/tralonzhang/article/details/7773824
http://www.cnblogs.com/shishanyuan/p/4177908.html
http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_user_guide.html
文件列表為:
CentOS-6.5-x86_64-bin-DVD1.iso
hadoop-2.6.4.tar.gz
jdk-8u77-linux-x64.rpm
putty_V0.63.0.0.43510830.exe
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。