91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

hbase集群間如何實現數據遷移

發布時間:2021-12-08 15:03:48 來源:億速云 閱讀:152 作者:小新 欄目:云計算

小編給大家分享一下hbase集群間如何實現數據遷移,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

HBase遷移數據
一、需要在hbase集群停掉的情況下遷移

步驟:
(1)執行Hadoop distcp -f filelist "hdfs://new cluster ip:9000/hbasetest"

(2)在new cluster執行./hbase org.jruby.Main add_table.rb /hbase/table20111222,將拷貝來的表加入到.MEAT.中(會出現region的數目不一致的問題,這個需要重啟hase才能解決)

說明:(1)filelist為hdfs上的列表文件,內容如下:

/hbase/table20111222

/hbase/table20120131

(2)如果兩個集群的hadoop版本不一致,需要在new cluster上執行hadoop distcp,否則會出現讀寫異常;

二、在集群運行的時候進行數據遷移

1、Replication
這個是動態的備份(可以理解為實時備份)

步驟:
(1)在old cluster將需要遷移的表屬性進行修改:

disable 'your_table'

alter 'your_table', {NAME => 'family_name', REPLICATION_SCOPE => '1'}

enable 'your_table'

(2)打開new cluster集群的replication,修改hbase-site.xml

<property>

<name>hbase.replication</name>

<value>true</value>

</property>

(3)添加peer,在new cluster的hbase shell中執行:add_peer '1','old cluster ip:2181:/hbase',啟動replication,執行start_replication

說明:需要兩個集群的hadoop版本一致,否則出現讀寫錯誤

2、CopyTable:
可以在本集群中拷貝一張表,也可以將表拷貝到其他的集群中。

命令:./hbase org.apache.hadoop.hbase.mapreduce.CopyTable --peer.adr=new cluster ip:2181:/hbase zy_test

說明:(1)拷貝完成,不需要重啟機器,在new cluster中就可以看到該表;

(2)穩定性還需要考慮,測試過程中遇到一個問題,拷貝過程中始終都停留在這里Lookedup root region location, 查看日志沒有什么錯誤和相關的信息。


3、Export and Import

步驟:
(1)在old cluster上執行:./hbase org.apache.hadoop.hbase.mapreduce.Export test hdfs://new cluster ip:9000/zhuangyang/test

(2)在new cluster上執行:./hbase org.apache.hadoop.hbase.mapreduce.Import test hdfs://new cluster ip:9000/zhuangyang/test

說明:
(1)一定要寫全路徑,不能寫相對路勁;

(2)在import前,需要將表事先在new cluster中創建好.

以上都是在old cluster和new cluster網絡相通的情況下實現數據遷移的辦法。



HBase遷移數據方案二(兩個集群不能通信)

兩個可以直接通信的集群之間很容易拷貝數據從而遷移HBase數據。

但是如果兩個集群在不同的網絡,沒法通信呢?

今天測試了一個方案:

把某個表(table1)從集群1遷移到集群2(兩個集群互相看不見),步驟如下

1、拷貝集群1的表文件到本地磁盤 :

/app/cloud/Hadoop/bin/hadoop fs -copyToLocal /hbase/table1 /data0/hbase-backup/table1  

2、對于文件操作,很簡單吧,隨便你怎么去拷貝來拷貝去

3、如果集群2中也有對應的表文件,那么刪除掉,然后拷貝

/app/cloud/hadoop/bin/hadoop fs -rmr /hbase/table1   
/app/cloud/hadoop/bin/hadoop fs -copyFromLocal /data0/hbase-backup/table1 /hbase/table1  

4、重置該表在.META.表中的分區信息
bin/hbase org.jruby.Main bin/add_table.rb /hbase/table1  
另外:
1、如果表的數據量過大呢? 那么按照該表在HDFS中的文件夾數據,分批拷貝。
2、如果兩個集群可以互相通信呢?采用第一種方案即可

以上是“hbase集群間如何實現數據遷移”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

灵山县| 麦盖提县| 盘山县| 射阳县| 米林县| 柳林县| 绵阳市| 江都市| 信阳市| 天台县| 探索| 河曲县| 罗江县| 昔阳县| 天峻县| 航空| 营山县| 朝阳市| 茌平县| 彩票| 怀仁县| 郓城县| 习水县| 柳林县| 呼和浩特市| 大渡口区| 安塞县| 四子王旗| 新竹县| 贡山| 高台县| 五指山市| 石柱| 大荔县| 桂平市| 盖州市| 自治县| 宁明县| 岳普湖县| 永新县| 美姑县|