91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

hadoop數據怎么遷移

發布時間:2021-08-19 09:23:17 來源:億速云 閱讀:367 作者:chen 欄目:云計算

本篇內容主要講解“hadoop數據怎么遷移”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“hadoop數據怎么遷移”吧!

tcp工具使用說明:

在表結構/分區創建好的情況下,在hadoop2.0集群的任意一個節點上執行:

hadoop distcp -Dmapreduce.job.queue.name=queue_name  -update -skipcrccheck [source_path...] <target_path>

1、    source_path參數為hadoop1.0上需要拷貝的表/分區數據目錄全路徑,必須采用hftp協議訪問,如test庫下的test表路徑為hftp://hadoop1:50070/user/hive/warehouse/test.db/test

2、    target_path參數為hadoop2.0上對應表/分區數據目錄路徑,如/user/hive/warehouse/test.db/test

3、    跨版本集群拷貝時-update -skipcrccheck參數必須帶上。

4、    -Dmapreduce.job.queue.name參數用于指定任務在哪個資源池中運行,如:-Dmapreduce.job.queue.name=queue_0401_01。

5、Distcp任務執行時以MR任務運行,會占用指定資源池中資源。

表數據拷貝示例:

hadoop distcp -Dmapreduce.job.queue.name=queue_0401_01 -update -skipcrccheck hftp://hadoop1:50070/user/hive/warehouse/social.db/sina_wb_timelines  /user/hive/warehouse/social.db/sina_wb_timelines

分區數據拷貝示例:

hadoop distcp -Dmapreduce.job.queue.name=queue_0401_01 -update -skipcrccheck hftp://hadoop1:50070/user/hive/warehouse/social.db/sina_wb_timelines/d=21  /user/hive/warehouse/social.db/sina_wb_timelines/d=21

1、建立表結構:

CREATE  TABLE `fin_fa_wide_asset`(

  `period_name` string,

  `set_of_books_id` string,

  `book_type_code` string,

  `segment1` string,

  `segment2` string,

  `segment3` string,

  `asset_id` string,

  `description` string,

  `asset_category_id` string,

  `asset_number` string,

  `use_department` string,

  `operating_status` string,

  `use_status` string,

  `use_people` string,

  `city` string,

  `location` string,

  `units_assigned` double,

  `date_placed_in_service` string,

  `deprn_run_date` string,

  `cost` double,

  `original_cost` double,

  `salvage_value` double,

  `recoverable_cost` double,

  `current_net_value` double,

  `ytd_deprn` double,

  `deprn_reserve` double,

  `salvage_cost_rate` double,

  `deprn_method_code` string,

  `deprn_in_months` double,

  `life_in_months` double,

  `deprn_amount` double,

  `deprn_adjustment_acct` string,

  `po_number` string,

  `asset_invoice_id` string,

  `invoice_number` string)

PARTITIONED BY (

  `y` string,

  `m` string)row format delimited fields terminated by '\001' stored as rcfile;

2、導數:

hadoop distcp -Dmapreduce.job.queue.name=queue_0009_01 -update -skipcrccheck hftp://hadoop1:50070/user/hive/warehouse/jt_mas_safe.db/fin_fa_wide_asset  /user/hive/warehouse/jt_mas_safe.db/fin_fa_wide_asset

3、加載數據腳本,視不同表分區而定:

alter table jt_mas_safe.fin_fa_wide_asset add partition(y='2015',m='08');

load data inpath '/user/hive/warehouse/jt_mas_safe.db/fin_fa_wide_asset/y=2015/m=08' into table jt_mas_safe.fin_fa_wide_asset partition(y='2015',m='08’);

到此,相信大家對“hadoop數據怎么遷移”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

永年县| 平阴县| 随州市| 庄河市| 大竹县| 枣强县| 阿克陶县| 苍山县| 登封市| 德江县| 渝北区| 宁陵县| 湘乡市| 芦溪县| 宜川县| 慈利县| 昌平区| 琼海市| 西贡区| 扶余县| 扎鲁特旗| 九龙县| 洛南县| 罗源县| 原阳县| 陇川县| 仁怀市| 夏河县| 泸西县| 石棉县| 瓮安县| 南雄市| 于都县| 泰兴市| 嘉善县| 左权县| 乡宁县| 岐山县| 高安市| 卓资县| 恩施市|