91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

hadoop0.20.2集群搭建Ubuntu14.04環境的方法

發布時間:2021-07-30 18:29:52 來源:億速云 閱讀:111 作者:chen 欄目:云計算

本篇內容主要講解“hadoop0.20.2集群搭建Ubuntu14.04環境的方法”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“hadoop0.20.2集群搭建Ubuntu14.04環境的方法”吧!

配前準備

一.   安裝環境:Ubuntu 14.04 ---------一共三臺機器

其中一臺namenode+jobtracker (master) , 兩臺 datanode + tasktracker(hadoop, salve1)

下表為各個機器的具體內容

ip                     username/password  hostname

10.60.38.165    hadoop/123456          hadoop

10.60.38.166     hadoop/123456         master

10.60.38.155     hadoop/123456         salve1  (......居然拼錯了,我靠)

在每臺機器的/etc/hosts 下面 添加

10.60.38.165     hadoop

10.60.38.166     master

10.60.38.155     salve1

使得各臺機器相互之間可以ping通(通過hostname可以ping)

(ps: /etc/hosts 里面的數據全部清空,只留上面的三個 以及第一項: 127.0.0.1   localhost )

二.    SSH 無密碼驗證配置

1.因為大部分Linux里面默認已經安裝好了ssh,我在安裝時已經默認安裝好,但是ssh service 沒有安裝,使用 sudo apt-get install openssh-server 來安裝 ssh service。(確保 22端口號處于監聽狀態:netstat -nat 查看)

2.在每臺機器上都執行 下面命令: ssh-kengen -t rsa -P ""

一路enter (將密鑰的位置保存在默認的路徑下)

在user的當前目錄下出現目錄/.ssh(默認的權限為700)

里面生成兩個文件 id_rsa 和 id_rsa.pub

3.接著在 Master 節點上做如下配置把id_rsa.pub 追加到授權的key 里面

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys  

4.下面在其他兩臺機器上依次執行命令將各自生成的id_rsa.pub 添加到Master 下的authorized_keys 里面

cat id_rsa.pub | ssh hadoop@master  "cat >> ~/.ssh/authorized_keys  ( 此時 ssh 到 另外一臺機器上 需要另外一臺機器的密碼)

5.最后將Master 機器上得到的 authorized_keys 依次添加到 各臺機器的 /home/hadoop/.ssh 目錄下

scp authorized_keys hadoop@hadoop :~/.ssh

scp authorized_keys hadoop@salve1:~/.ssh

6.配置完成后在每一臺機器上都可以無密碼驗證登錄另外一臺機器了。于是這一步搞定。

在每臺機器上安裝jdk 和 Hadoop 

配置Hadoop (此處我的版本為hadoop0.20.2,jdk1.7)

----在配置文件中設值時,兩邊千萬不能有空格,不然無效。

接下來配置配置文件:hadoop-env.sh, core-site.xml, hdfs-site.xml, mapred-site.xml

PS:

對于hadoop-env.sh 各個節點的配置都是相同的。

對于master節點,需要額外配置slaves 文件,在里面添加各個datanode  的ip 地址

下面附上master節點與Hadoop節點的配置(salve1與Hadoop類似,只需修改對于的ip,這里我已經大部分采用系統默認配置,所以無需更改)

hadoop-env.sh:

export JAVA_HOME=/opt/jdk1.7

(就在最后面加上即可)

core-site.xml:

<configuration>

        <property>

                    <name>fs.default.name</name>

                    <value>hdfs://master:9000</value>

        </property>

</configuration>

ps: 這里當我添加屬性 hadoop.tmp.dir 改變其默認路徑時,集群在啟動時報錯。。。。未解,先暫時啟用默認路徑。還望大神指教。

hdfs-site.xml:

<configuration>

        <property>

                    <name>dfs.webhdfs.enabled</name>

                    <value>true</value>

        </property>

</configuration>

<configuration>

        <property>

                    <name>dfs.replication</name>

                    <value>2</value>

        </property>

</configuration>

mapred-site.xml:

<configuration>

        <property>

                    <name>mapred.job.tracker</name>

                    <value>10.60.38.166:9001</value>

        </property>

</configuration>

slaves:

10.60.38.165      hadoop

10.60.38.155      salve1

masters:

master

在master節點配置好了然后復制到各個Datanode 節點。

注意:這里的master, slaves 文件在復制的時候可以不用變動,系統會自動忽略。而且配置都不需要改變,因為已經盡量采用了默認配置

---------------------------------------------------------------------------------------------------------------------

測試運行

經過以下幾步:

1.create some files(file01.txt, file02.txt) 

2.hadoop fs -mkdir input

3.hadoop fs -put file*.txt input

4.hadoop jar /opt/hadoop/hadoop-0.20.2-examples.jar wordcount input output

5.hadoop fs -ls output

6.hadoop fs -cat output/part-r-00000

最得到結果:

;slkdfj 1

aer 1

apple 1

are 1

asfjjjf 1

c++ 1

fj 1

hello 2

java 3

tantairs 1

world 4

到此,相信大家對“hadoop0.20.2集群搭建Ubuntu14.04環境的方法”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

耿马| 滁州市| 南充市| 藁城市| 仁布县| 贵州省| 平南县| 舒城县| 宕昌县| 岳阳市| 图片| 利津县| 吉林省| 玉林市| 延寿县| 班戈县| 宁波市| 桑植县| 云阳县| 哈巴河县| 湖口县| 涟源市| 鹿泉市| 余姚市| 桐乡市| 遂平县| 河源市| 奉贤区| 泽州县| 社会| 黄平县| 台中县| 丰都县| 光泽县| 巨鹿县| 永昌县| 磴口县| 丽江市| 武冈市| 喀什市| 建阳市|