您好,登錄后才能下訂單哦!
小編今天帶大家了解大數據HIve數據倉庫應用實例分析,文中知識點介紹的非常詳細。覺得有幫助的朋友可以跟著小編一起瀏覽文章的內容,希望能夠幫助更多想解決這個問題的朋友找到問題的答案,下面跟著小編一起深入學習“大數據HIve數據倉庫應用實例分析”的知識吧。
如今,大數據的大浪已經把我們每個人都卷入其中,隨著大數據技術一起引起大眾注意的還有HIve數據倉庫。作為大數據分析的核心工具之一,它一直發揮著為企業提供決策支持的重要作用。因此掌握Hive是入門大數據學習的關鍵之一,下面我們就一起來看看HIve數據倉庫應用案例講解。
將本地文件數據加載到Hive數據倉庫:
首先在/public/users/yexin/Hadoop/hadoopdata下建立文本文件:
Hive中建立表后只有兩種方式可以加載數據:
(1)從本地文件系統加載數據
(2)從Hadoop文件系統加載數據
在node63節點啟動hive服務:分別輸入:hive --service metastore &;hive --service hiveserver2或直接輸
入hiveserver2
在node70節點下輸入hive登陸,執行如下操作,
創建表:
hive> CREATE TABLE score (
> sno int,name String,
> java decimal(10,2),
> python decimal(10,2))
> ROW FORMAT DELIMITED
> FIELDS TERMINATED BY '\t'
> LINES TERMINATED BY '\n'
> STORED AS TEXTFILE;
OK
Time taken: 0.429 seconds
導入數據:從本地系統文件按導入
Time taken: 0.429 seconds
hive> load data local inpath '/public/users/yexin/Hadoop/hadoopdata/score.txt' overwrite into table
score;
Loading data to table yexin.score
OK
Time taken: 1.413 seconds
查詢score表:
查看HDFS數據:
查看元數據:
use hive;
刪除表:drop tabel score? 記住刪除表時HDFS上的數據一起刪除了。
注意:如果建立的是外部表,drop后HDFS中的文件并沒有刪除
Beelin命令:
設置訪問權限:修改hadoop的core-site.xml
用其他節點作為客戶端,需要在node63節點配置hive2的監聽節點端口,才能讓遠程訪問hive服務(beeline)
vim hive-site.xml
添加:來綁定node70客戶端訪問 。這樣遠程就可以訪問了。
<property>
<name>hive.server2.thrift.bind.host</name>
<value>node70</value>
</property>
<property>
<name>hive.server2.long.polling.timeout</name>
<value>5000</value>
</property>
在node70節點(hive的客戶端)來連接HiveServer2(允許多個客戶端并發操作)
輸入:beeline進入beeline,輸入:
!connect jdbc:hive2://node70:10000 yexin 12345
感謝大家的閱讀,以上就是“大數據HIve數據倉庫應用實例分析”的全部內容了,學會的朋友趕緊操作起來吧。相信億速云小編一定會給大家帶來更優質的文章。謝謝大家對億速云網站的支持!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。