91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

docker怎么搭建hadoop以及hbase集群

發布時間:2021-08-20 03:28:41 來源:億速云 閱讀:541 作者:chen 欄目:服務器

這篇文章主要講解了“docker怎么搭建hadoop以及hbase集群”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“docker怎么搭建hadoop以及hbase集群”吧!

要用docker搭建集群,首先需要構造集群所需的docker鏡像。構建鏡像的一種方式是,利用一個已有的鏡像比如簡單的linux系統,運行一個容器,在容器中手動的安裝集群所需要的軟件并進行配置,然后commit容器到新的鏡像。另一種方式是,使用Dockerfile來自動化的構造鏡像。

下面采用第二種.

1. 創建帶ssh服務的ubuntu14.04系統鏡像

使用ubuntu14系統來安裝hadoop和hbase,由于hadoop集群機器之間通過ssh通信,所以需要在ubuntu14系統中安裝ssh服務。

編寫Dockerfile如下:

############################################

# version : debugman007/ssh:v1

# desc : ubuntu14.04 上安裝的ssh

############################################

# 設置繼承自ubuntu14.04官方鏡像

FROM ubuntu:14.04 

 

# 下面是一些創建者的基本信息

MAINTAINER debugman007 (skc361@163.com)

 

RUN rm -vf /var/lib/apt/lists/*

RUN apt-get update 

RUN apt-get install -y openssh-server openssh-client vim wget curl sudo

 

#添加用戶 test,設置密碼為 test, 賦予sudo權限

RUN useradd -m test 

RUN echo "test:test" | chpasswd

RUN cd /etc/sudoers.d && touch nopasswdsudo && echo "test ALL=(ALL) ALL" >> nopasswdsudo

#把test用戶的shell改成bash,否則ssh登錄ubuntu服務器,命令行不顯示用戶名和目錄

RUN usermod -s /bin/bash test

 

RUN echo "root:root" | chpasswd

 

#配置ssh

RUN mkdir /var/run/sshd

 

RUN sed -i 's/PermitRootLogin prohibit-password/PermitRootLogin yes/' /etc/ssh/sshd_config

RUN sed 's@session\s*required\s*pam_loginuid.so@session optional pam_loginuid.so@g' -i /etc/pam.d/sshd

ENV NOTVISIBLE "in users profile"

RUN echo "export VISIBLE=now" >> /etc/profile

 

EXPOSE 22

 

USER test

RUN ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa

RUN cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

 

USER root

RUN ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa

RUN cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

創建好的系統鏡像位于:https://hub.docker.com/r/debugman007/ubt14-ssh/

Dockerfile 位于:https://github.com/gtarcoder/dockerfiles/blob/master/ubt14-ssh/Dockerfile

2. 創建hadoop和hbase基本鏡像

編寫Dockerfile如下:

############################################

# version : debugman007/ubt14-hadoop-hbase:v1

# desc : ubuntu上安裝的ssh,java, hadoop 

############################################

FROM debugman007/ubt14-ssh:v1

 

# 下面是一些創建者的基本信息

MAINTAINER debugman007 (skc361@163.com)

 

#為hadoop集群提供dns服務

RUN sudo apt-get -y install dnsmasq

 

#安裝和配置java環境

#RUN yum -y install java-1.7.0-openjdk*

ADD http://mirrors.linuxeye.com/jdk/jdk-7u80-linux-x64.tar.gz /usr/local/ 

RUN cd /usr/local && tar -zxvf jdk-7u80-linux-x64.tar.gz && rm -f jdk-7u80-linux-x64.tar.gz

 

ENV JAVA_HOME /usr/local/jdk1.7.0_80

ENV CLASSPATH ${JAVA_HOME}/lib/dt.jar:$JAVA_HOME/lib/tools.jar

ENV PATH $PATH:${JAVA_HOME}/bin

 

#安裝和配置 hadoop

RUN groupadd hadoop

RUN useradd -m hadoop -g hadoop

RUN echo "hadoop:hadoop" | chpasswd

 

ADD http://www-eu.apache.org/dist/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz /usr/local/

RUN cd /usr/local && tar -zxvf hadoop-2.7.3.tar.gz && rm -f hadoop-2.7.3.tar.gz

RUN chown -R hadoop:hadoop /usr/local/hadoop-2.7.3

RUN cd /usr/local && ln -s ./hadoop-2.7.3 hadoop

 

ENV HADOOP_PREFIX /usr/local/hadoop

ENV HADOOP_HOME /usr/local/hadoop

ENV HADOOP_COMMON_HOME /usr/local/hadoop

ENV HADOOP_HDFS_HOME /usr/local/hadoop

ENV HADOOP_MAPRED_HOME /usr/local/hadoop

ENV HADOOP_YARN_HOME /usr/local/hadoop

ENV HADOOP_CONF_DIR /usr/local/hadoop/etc/hadoop

ENV PATH ${HADOOP_HOME}/bin:$PATH

 

ADD http://www-eu.apache.org/dist/hbase/1.2.4/hbase-1.2.4-bin.tar.gz /usr/local/

RUN cd /usr/local && tar -zxvf hbase-1.2.4-bin.tar.gz && rm -f hbase-1.2.4-bin.tar.gz 

RUN chown -R hadoop:hadoop /usr/local/hbase-1.2.4

RUN cd /usr/local && ln -s ./hbase-1.2.4 hbase

 

ENV HBASE_HOME /usr/local/hbase

ENV PATH ${HBASE_HOME}/bin:$PATH

 

 

RUN echo "hadoop ALL= NOPASSWD: ALL" >> /etc/sudoers

 

USER hadoop

RUN ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa

RUN cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

創建好的鏡像位于:https://hub.docker.com/r/debugman007/ubt14-hadoop-hbase/

Dockerfile 位于:https://github.com/gtarcoder/dockerfiles/blob/master/ubt14-hadoop-hbase/Dockerfile

3. 給hadoop,hbase鏡像進行配置

Dockerfile 如下:

############################################

# version : debugman007/ubt14-hadoop-hbase:master

# desc : ubuntu上安裝的ssh,java, hadoop, hbase

############################################

FROM debugman007/ubt14-hadoop-hbase:base

 

# 下面是一些創建者的基本信息

MAINTAINER debugman007 (skc361@163.com)

 

ADD hadoop-env.sh $HADOOP_HOME/etc/hadoop/ 

ADD mapred-env.sh $HADOOP_HOME/etc/hadoop/ 

ADD yarn-env.sh $HADOOP_HOME/etc/hadoop/ 

ADD core-site.xml $HADOOP_HOME/etc/hadoop/ 

ADD hdfs-site.xml $HADOOP_HOME/etc/hadoop/ 

ADD mapred-site.xml $HADOOP_HOME/etc/hadoop/ 

ADD yarn-site.xml $HADOOP_HOME/etc/hadoop/ 

ADD slaves $HADOOP_HOME/etc/hadoop/ 

 

ADD hbase-env.sh $HBASE_HOME/conf/

ADD hbase-site.xml $HBASE_HOME/conf/

ADD regionservers $HBASE_HOME/conf/

 

USER hadoop

RUN sudo mkdir -p /opt/hadoop/data/zookeeper

RUN sudo chown -R hadoop:hadoop $HADOOP_HOME/etc/hadoop 

RUN sudo chown -R hadoop:hadoop $HBASE_HOME/conf

RUN sudo chown -R hadoop:hadoop /opt/hadoop 

RUN sudo chown -R hadoop:hadoop /home/hadoop 

 

COPY bootstrap.sh /home/hadoop/ 

RUN chmod 766 /home/hadoop/bootstrap.sh 

 

ENTRYPOINT ["/home/hadoop/bootstrap.sh"] 

CMD ["/bin/bash"]

除了Dockerfile文件,還需要hadoop和hbase的一些配置文件,包括 core-site.xml, hadoop-env.sh, hbase-env.sh, hbase-site.xml, hdfs-site.xml, mapred-env.sh, regionservers, slaves, yarn-env.sh, yarn-site.xml等。

創建好的鏡像位于:https://hub.docker.com/r/debugman007/ubt14-hadoop-hbase/

Dockerfile以及配置文件位于:https://github.com/gtarcoder/dockerfiles/tree/master/ubt14-hadoop-hbase-v1

4. 啟動

(1)啟動一個容器作為hadoop master節點:

docker run -it --name hadoop-master -h hadoop-master -d -P -p 50070:50070 -p 8088:8088 debugman007/ubt14-hadoop-hbase:v1

(2)啟動三個容器作為hadop slave節點

docker run -it --name hadoop-slave1 -h hadoop-slave1 debugman007/ubt14-hadoop-hbase:v1

三個容器名和容器內的主機名分別設為 hadoop-slave1, hadoop-slave2, hadoop-slave3.

(3)設置各個節點的/etc/hosts文件

編輯一個run_hosts.sh 腳本文件,用來設置各個節點的名稱解析。假設hadoop-master容器內的IP地址為10.0.1.2, hadoop-slave1/2/3 的IP地址分別為10.0.1.3/4/5.

#!/bin/bash

echo 10.0.1.2 hadoop-master >> /etc/hosts

echo 10.0.1.3 hadoop-slave1 >> /etc/hosts

echo 10.0.1.4 hadoop-slave2 >> /etc/hosts

echo 10.0.1.5 hadoop-slave3 >> /etc/hosts

 

echo 10.0.1.3 regionserver1 >> /etc/hosts #hbase的regionserver服務器

echo 10.0.1.4 regionserver2 >> /etc/hosts

在hadoop-master和hadoop-salve1/2/3容器中都執行該腳本。

(4)進入hadoop-master容器

docker exec -it hadoop-master bash

然后在容器內 /usr/local/hadoop/sbin 目錄下執行:

hdfs namenode -format
./start-dfs.sh
./start-yarn.sh

啟動hadoop服務。

在容器內執行 start-hbase.sh 啟動hbase服務。

(5)在 hadoop-master 節點和hadoop-slave節點內查看服務是否正常啟動

在各個節點容器內都執行 jps 查看,發現在mster節點中出現

Jps, ResourceManager, NameNode, SecondaryNamenode, HMaster等服務;

在slave節點中出現 Jps, DataNode, NodeManager, HRegionServer等服務。

出現以上服務,說明集群正常啟動。

感謝各位的閱讀,以上就是“docker怎么搭建hadoop以及hbase集群”的內容了,經過本文的學習后,相信大家對docker怎么搭建hadoop以及hbase集群這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

辉县市| 承德市| 鄯善县| 新建县| 婺源县| 霍林郭勒市| 沅陵县| 万山特区| 云梦县| 当涂县| 安丘市| 钟山县| 武宁县| 革吉县| 普陀区| 桐柏县| 元江| 霍邱县| 那坡县| 渭南市| 邮箱| 安徽省| 平潭县| 泌阳县| 郓城县| 建瓯市| 嵊泗县| 晋州市| 左权县| 盘锦市| 中卫市| 马尔康县| 偃师市| 瑞昌市| 沁源县| 萨嘎县| 宁远县| 富裕县| 宝鸡市| 闵行区| 宜川县|