您好,登錄后才能下訂單哦!
小編給大家分享一下配置HDFS HA后hive拋錯Wrong FS怎么辦,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
1.問題:
在CDH5.x或者Apache環境下,配置了NameNode的HA后,Hive無正常查詢數據了。
Hive查詢會出現如下異常:
FAILED: SemanticException Unable to determine if hdfs://hadoop-01:8020/user/hive/warehouse/t1
is encrypted: java.lang.IllegalArgumentException: Wrong FS: hdfs://hadoop-01:8020/user/hive/warehouse/t1, expected: hdfs://nameservice1
2.解決:
Hive元數據的問題,在Hive數據庫中有兩張表:
DBS : Hive數據倉庫的總路徑
SDS : Hive每張表對應的路徑
a.進入mysql
b.use hive;
c.修改dbs 和 sds表
update DBS set DB_LOCATION_URI=REPLACE (DB_LOCATION_URI,'hadoop-01:8020','nameservice1');
update SDS set LOCATION=REPLACE (LOCATION,'hadoop-01:8020','nameservice1')
以上是“配置HDFS HA后hive拋錯Wrong FS怎么辦”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。