91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Hadoop安裝 1.0(簡版)

發布時間:2020-06-28 22:13:09 來源:網絡 閱讀:316 作者:刀刀_高揚 欄目:大數據

前提:

一定要保證iptables是關閉的并且selinux是disabled


1、準備硬件


1臺namenode和3臺datanode

namenode 192.168.137.100

datanode1 192.168.137.101

datanode2 192.168.137.102

datanode3 192.168.137.103


2、在4臺機器上建立hadoop用戶(也可以是別的用戶名)


useradd hadoop


3、在4臺機器上安裝JDK 1.6


安裝后的JAVA_HOME放在/jdk

配置環境變量

vim /etc/bashrc

export JAVA_HOME=/jdk

scp -r /jdk* datanode1:/

scp -r /jdk* datanode2:/

scp -r /jdk* datanode3:/


4、配置4臺機器的多機互信


一定記得將各個節點的

/home/hadoop/.ssh

和其以下的所有文件都設成700權限位


5、安裝hadoop


tar zxvf hadoop-1.0.4.tar


安裝在/hadoop

將/hadoop權限位置為755


vim /hadoop/conf/hadoop-env.sh


export JAVA_HOME=/jdk


vim /hadoop/conf/core-site.xml

<property>

<name>hadoop.tmp.dir</name>

<value>/home/hadoop/tmp</value>

</property>

<property>

<name>fs.default.name</name>

<value>hdfs://namenode:9000</value>

</property>

vim /hadoop/conf/mapred-site.xml

<property>

<name>mapred.job.tracker</name>

<value>namenode:9001</value>

</property>


vim /hadoop/conf/hdfs-site.xml

<property>

<name>dfs.name.dir</name>

<value>/home/hadoop/name</value>

</property>

<property>

<name>dfs.data.dir</name>

<value>/home/hadoop/name</value>

</property>

<property>

<name>dfs.replication</name>

<value>2</value>


vim /hadoop/conf/masters


192.168.137.100


vim /hadoop/conf/slaves

192.168.137.101

192.168.137.102

192.168.137.103


把配置好的HADOOP拷貝到datanode上去

cd /

scp -r hadoop datanode1:/hadoop

scp -r hadoop datanode2:/hadoop

scp -r hadoop datanode3:/hadoop


6、安裝zookeeper

tar zxvf zookeeper-3.3.4.tar

安裝在/zookeeper

cd /zookeeper/conf

cp zoo_sample.cfg zoo.cfg

vim zoo.cfg

加入

dataDir=/zookeeper-data

dataLogDir=/zookeeper-log

server.1=namenode:2888:3888

server.2=datanode1:2888:3888

server.3=datanode2:2888:3888

server.4=datanode3:2888:3888

建立/zookeeper-data

mkdir /zookeeper-data

建立/zookeeper-log

建立文件/zookeeper-data/myid

vim /zookeeper-data/myid

1

(datanode1里對應寫入2)

(datanode2里對應寫入3)

(datanode3里對應寫入4)

10、安裝hive

tarzxvf hive-0.8.0.tar

到/hive

vim /hive/bin/hive-config.sh

export HADOOP_HOME=/hadoop

export PATH=.$HADOOP_HOME/bin:$PATH

export HIVE_HOME=/hive

export PATH=$HIVE_HOME/bin:$PATH

export JAVA_HOME=/jdk

export JRE_HOME=/jdk/jre

export CLASSPATH=.$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH

export PATH=.$JAVA_HOME/bin:$JRE_HOME/bin:$PATH

vim /etc/bashrc

export HIVE_HOME=/hive

11、啟動hadoop

格式化并啟動系統

su hadoop

cd /usr/local/hadoop/bin

./hadoop namenode -format

./start-dfs.sh

./start-mapred.sh

http://192.168.137.100:50070查看HDFS namenode

http://192.168.137.100:50030 查看MAPREDUCE JOB TRACKERS

http://192.168.137.101:5006查看datanode1上的TASK TRACKER

12、相關命令

hadoop fs -mkdir direc

hadoop fs -ls

hadoop fs -cp file:///tmp/test.file /user/hadoop/direc


向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

房山区| 勐海县| 南投县| 区。| 庆阳市| 桓台县| 西峡县| 榆中县| 莱州市| 廊坊市| 满城县| 乌兰县| 钟山县| 海阳市| 基隆市| 乐山市| 杭州市| 博乐市| 建湖县| 乡城县| 西城区| 湖北省| 房产| 南丰县| 五家渠市| 寿光市| 青海省| 和硕县| 吉林市| 扎赉特旗| 万年县| 都昌县| 宣恩县| 龙州县| 南宁市| 大悟县| 望城县| 焦作市| 嫩江县| 鄂尔多斯市| 洪泽县|