91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

bulk-load裝載hdfs數據到hbase的示例分析

發布時間:2021-12-08 16:12:43 來源:億速云 閱讀:123 作者:小新 欄目:云計算

這篇文章給大家分享的是有關bulk-load裝載hdfs數據到hbase的示例分析的內容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。

bulk-load的作用是用mapreduce的方式將hdfs上的文件裝載到hbase中,對于海量數據裝載入hbase非常有用

hbase提供了現成的程序將hdfs上的文件導入hbase,即bulk-load方式。它包括兩個步驟(也可以一次完成): 
1 將文件包裝成hfile,hadoop jar/path/to/hbase.jar importtsv -Dimporttsv.columns=a,b,c <tablename><inputdir> 
比如:

Java代碼



  • hadoop dfs -cat test/1  

  • 1       2  

  • 3       4  

  • 5       6  

  • 7       8  

  hadoop dfs -cat test/1

  1       2

  3       4

  5       6

  7       8


執行

Java代碼



  • hadoop jar ~/hbase/hbase-0.90.2.jar importtsv -Dimporttsv.columns=HBASE_ROW_KEY,f1 t8 test  

  hadoop jar ~/hbase/hbase-0.90.2.jar importtsv-Dimporttsv.columns=HBASE_ROW_KEY,f1 t8 test


將會啟動mapreduce程序在hdfs上生成t8這張表,它的rowkey分別為1 35 7,對應的value為2 4 6 8 
注意,源文件默認以"\t"為分割符,如果需要換成其它分割符,在執行時加上-Dimporttsv.separator=",",則變成了以","分割 

2 在上一步中,如果設置了輸出目錄,如

Java代碼



  • hadoop jar ~/hbase/hbase-0.90.2.jar importtsv -Dimporttsv.bulk.output=tmp -Dimporttsv.columns=HBASE_ROW_KEY,f1 t8 test  

   hadoop jar ~/hbase/hbase-0.90.2.jarimporttsv -Dimporttsv.bulk.output=tmp -Dimporttsv.columns=HBASE_ROW_KEY,f1 t8test


那么t8表還暫時不會生成,只是將hfile輸出到tmp文件夾下,我們可以查看tmp:

Java代碼



  • hadoop dfs -du tmp       

  • Found 3 items   

  • 0           hdfs://namenode:9000/user/test/tmp/_SUCCESS       

  • 65254       hdfs://namenode:9000/user/test/tmp/_logs       

  • 462         hdfs://namenode:9000/user/test/tmp/f1  

  hadoop dfs -du tmp

  Found 3 items

  0          hdfs://namenode:9000/user/test/tmp/_SUCCESS

  65254      hdfs://namenode:9000/user/test/tmp/_logs

  462        hdfs://namenode:9000/user/test/tmp/f1


然后執行hadoop jar hbase-VERSION.jarcompletebulkload /user/todd/myoutput mytable將這個輸出目錄中的hfile轉移到對應的region中,這一步因為只是mv,所以相當快。如: 
hadoop jar ~/hbase/hbase-0.90.2.jar completebulkload tmp t8 
然后

Java代碼



  • hadoop dfs -du /hbase/t8/c408963c084d328490cc2f809ade9428       

  •     Found 4 items   

  •     124         hdfs://namenode:9000/hbase/t8/c408963c084d328490cc2f809ade9428/.oldlogs       

  •     692         hdfs://namenode:9000/hbase/t8/c408963c084d328490cc2f809ade9428/.regioninfo       

  •     0           hdfs://namenode:9000/hbase/t8/c408963c084d328490cc2f809ade9428/.tmp       

  •     462         hdfs://namenode:9000/hbase/t8/c408963c084d328490cc2f809ade9428/f1  

hadoop dfs -du/hbase/t8/c408963c084d328490cc2f809ade9428

  Found 4 items

  124        hdfs://namenode:9000/hbase/t8/c408963c084d328490cc2f809ade9428/.oldlogs

  692         hdfs://namenode:9000/hbase/t8/c408963c084d328490cc2f809ade9428/.regioninfo

  0          hdfs://namenode:9000/hbase/t8/c408963c084d328490cc2f809ade9428/.tmp

  462        hdfs://namenode:9000/hbase/t8/c408963c084d328490cc2f809ade9428/f1


此時己經生成了表t8 
注意,如果數據特別大,而表中原來就有region,那么會執行切分工作,查找數據對應的region并裝載 

        程序使用中注意: 
1 因為是執行hadoop程序,不會自動查找hbase的config路徑,也就找不到hbase的環境變量。因此需要將hbase-site.xml加入到hadoop-conf變量中 
2 還需要將hbase/lib中的jar包放入classpath中 
3 執行以上的步驟2時需要將zookeeper的配置寫入core-site.xml中,因為在那一步時甚至不會讀取hbase-site.xml,否則會連不上zookeeper

感謝各位的閱讀!關于“bulk-load裝載hdfs數據到hbase的示例分析”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

深圳市| 杭州市| 商洛市| 潮州市| 平远县| 黎平县| 岑溪市| 新晃| 石家庄市| 辽阳市| 南涧| 阿克陶县| 赫章县| 泾阳县| 杭州市| 都江堰市| 乐清市| 安多县| 锡林浩特市| 朝阳市| 阳江市| 察雅县| 五家渠市| 佳木斯市| 女性| 沛县| 嘉善县| 金溪县| 京山县| 上蔡县| 上饶县| 姜堰市| 中阳县| 临安市| 沾益县| 泌阳县| 大宁县| 泸水县| 深圳市| 大城县| 威远县|