91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

hadoop和hive如何安裝

發布時間:2021-11-26 14:08:24 來源:億速云 閱讀:218 作者:小新 欄目:大數據

這篇文章將為大家詳細講解有關hadoop和hive如何安裝,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。

一、環境準備篇

vmware虛擬機安裝兩個centos7服務器(這里介紹一下vmware虛擬機設置固定ip)

hadoop和hive如何安裝

hadoop和hive如何安裝

hadoop和hive如何安裝

這樣vmware虛擬機固定ip網絡就搭建好了,搭建Hadoop機器說明:主:192.168.2.2,從192.168.2.3(虛擬機一開始要設置固定ip)
兩個服務器上的/etc/hosts如下:
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
192.168.2.2 master
192.168.2.3 slave0

二、hadoop安裝包下載部署,下載地址: http://archive.apache.org/dist/hadoop/core/hadoop-2.7.5/

1、cd /data/software/
2、rz -y
3、tar -zxvf hadoop-2.7.5.tar.gz /usr/local/
4、mv hadoop-2.7.5 hadoop
5、vi /usr/local/hadoop/etc/hadoop/hadoop-env.sh 
找到export JAVA_HOME,修改為export JAVA_HOME=/usr/local/jdk1.8.0_251
6、 vi /usr/local/hadoop/etc/hadoop/core-site.xml需要在<configuration>和</configuration>之間加入的代碼:
<!--指定namenode的地址--><property>
    <name>fs.defaultFS</name>
    <value>hdfs://master:9000</value>
</property>
<property>
    <name>hadoop.tmp.dir</name>
    <value>/opt/hadoop/hadoopdata</value>
</property>
7、vi /usr/local/hadoop/etc/hadoop/hdfs-site.xml
需要在<configuration>和</configuration>之間加入的代碼:
<!--指定hdfs保存數據的副本數量--><property>
    <name>dfs.replication</name>
    <value>1</value>
</property>
8、vi /usr/local/hadoop/etc/hadoop/yarn-site.xml需要在<configuration>和</configuration>之間加入的代碼:<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>
<property>
    <name>yarn.resourcemanager.address</name>
    <value>master:18040</value>
</property>
<property>
    <name>yarn.resourcemanager.scheduler.address</name>
    <value>master:18030</value>
</property>
<property>
    <name>yarn.resourcemanager.resource-tracker.address</name>
    <value>master:18025</value>
</property>
<property>
    <name>yarn.resourcemanager.admin.address</name>
    <value>master:18141</value>
</property>
<property>
    <name>yarn.resourcemanager.webapp.address</name>
    <value>master:18088</value>
</property>
9、cp /usr/local/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapred-site.xml
vi /usr/local/hadoop/etc/hadoop/mapred-site.xml需要在<configuration>和</configuration>之間加入的代碼:
<!--告訴hadoop以后MR運行在yarn上--><property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>
10、vi /opt/hadoop/hadoop/etc/hadoop/slaves
slave0
slave1
11、scp -r /usr/local/hadoop root@slave0:/usr/local
12、cd /usr/local/hadoop(兩個節點都做)
vi ~/.bash_profile
export HADOOP_HOME=/usr/local/hadoop
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
source ~/.bash_profile
13、mkdir /opt/hadoop/hadoopdata
hadoop namenode -format
14、cd /usr/local/hadoop/sbin
start-all.sh
stop-all.sh

在13做完以后需要創建hadoop用戶,hadoop組,然后使用chown命令將/usr/local/hadoop授權給hadoop組下的Hadoop用戶,檢查兩個服務器上的進程,進程明細如下:

192.168.2.2主節點
18784 SecondaryNameNode
18579 NameNode
18942 ResourceManager
21726 Jps
192.168.2.3從節點
129605 NodeManager
1445 Jps
129480 DataNode

如果從節點上datanode沒有啟動,可以查看從節點上datanode日志,日志目錄 :/usr/local/hadoop/logs/hadoop-hadoop-datanode-slave0.log

cd /usr/local/hadoop/bin
echo "abc" file.txt
ls -l 
./hdfs dfs -ls /
./hdfs dfs -put file.txt /

這樣就上傳了一個文件到hdfs中,可以打開地址http://192.168.2.2:50070/查看根目錄下是否存在file.txt

三、hive安裝包下載部署,下載地址: http://mirror.bit.edu.cn/apache/hive/

1、 tar -zxvf apache-hive-2.1.1-bin.tar.gz -C /usr/local/
2、 mv apache-hive-2.1.1-bin hive
3、 vi /etc/profile
export HIVE_HOME=/usr/local/hive 
export PATH=$PATH:$HIVE_HOME/bin 
source /etc.profile
4、cd /usr/local/hive/conf/
vi  hive-site.xml
<configuration>
        <property>
                <name>javax.jdo.option.ConnectionURL</name>  
                <value>jdbc:mysql://192.168.2.2:3306/hivedb?createDatabaseIfNotExist=true</value>
                <description>JDBC connect string for a JDBC metastore</description>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionDriverName</name>
                <value>com.mysql.jdbc.Driver</value>
                <description>Driver class name for a JDBC metastore</description>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionUserName</name>
                <value>root</value>
                <description>username to use against metastore database</description>
                </property>
        <property>
                <name>javax.jdo.option.ConnectionPassword</name>
                <value>1234</value>
                <description>password to use against metastore database</description>
                </property>
        <property>
                <name>hive.metastore.warehouse.dir</name>
                <value>/user/hive/warehouse</value>
                <description>hive default warehouse, if nessecory, change it</description>
        </property> 
</configuration>
5、復制mysql的驅動程序到hive/lib下面
6、cd  /usr/local/hive/bin
schematool -dbType mysql -initSchema
7、執行hive命令
create database test_workcreate table course (id int,name string);8、查詢hadoop目錄
hadoop fs -lsr /
drwxr-xr-x   - hadoop supergroup          0 2020-08-28 22:53 /user
drwxr-xr-x   - hadoop supergroup          0 2020-08-28 22:53 /user/hive
drwxr-xr-x   - hadoop supergroup          0 2020-08-28 22:53 /user/hive/warehouse
drwxr-xr-x   - hadoop supergroup          0 2020-08-28 22:53 /user/hive/warehouse/test_work.db
drwxr-xr-x   - hadoop supergroup          0 2020-08-28 22:54 /user/hive/warehouse/test_work.db/course
9、查詢hivedb數據庫的DBS、TBLS差異

關于“hadoop和hive如何安裝”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,使各位可以學到更多知識,如果覺得文章不錯,請把它分享出去讓更多的人看到。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

噶尔县| 逊克县| 红原县| 临沭县| 乌拉特后旗| 嘉善县| 崇阳县| 泗洪县| 伊金霍洛旗| 武川县| 越西县| 醴陵市| 巴彦淖尔市| 西藏| 西乡县| 休宁县| 三江| 太湖县| 银川市| 海门市| 高要市| 沁水县| 泰宁县| 岳阳市| 普格县| 古浪县| 浪卡子县| 蒙自县| 石泉县| 松桃| 隆尧县| 司法| 长春市| 广平县| 体育| 英超| 三台县| 嘉祥县| 霍城县| 镇远县| 凤台县|