您好,登錄后才能下訂單哦!
本篇內容主要講解“Hive高頻面試題有哪些”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“Hive高頻面試題有哪些”吧!
面試官往往一上來就一個“靈魂三連問”,很多沒有提前準備好的小伙伴基本回答得都磕磕絆絆,效果不是很好。下面貼出菌哥的回答:
Hive是基于Hadoop的一個數據倉庫工具,可以將結構化的數據文件映射為一張數據庫表,并提供類SQL查詢功能(HQL)。Hive本質是將SQL轉換為MapReduce的任務進行運算。
個人理解:hive存的是和hdfs的映射關系,hive是邏輯上的數據倉庫,實際操作的都是hdfs上的文件,HQL就是用sql語法來寫的mr程序。
Hive可以通過CLI,JDBC和 ODBC 等客戶端進行訪問。除此之外,Hive還支持 WUI 訪問
Hive內部執行流程:解析器(解析SQL語句)、編譯器(把SQL語句編譯成MapReduce程序)、優化器(優化MapReduce程序)、執行器(將MapReduce程序運行的結果提交到HDFS)
Hive的元數據保存在數據庫中,如保存在MySQL,SQLServer,PostgreSQL,Oracle及Derby等數據庫中。Hive中的元數據信息包含表名,列名,分區及其屬性,表的屬性(包括是否為外部表),表數據所在目錄等。
Hive將大部分 HiveSQL語句轉化為MapReduce作業提交到Hadoop上執行;少數HiveSQL語句不會轉化為MapReduce作業,直接從DataNode上獲取數據后按照順序輸出。
Hive 和 數據庫 實際上并沒有可比性,除了擁有類似的查詢語言,再無類似之處。
數據存儲位置
Hive 存儲在HDFS,數據庫將數據保存在塊設備或者本地文件系統中。
數據更新
Hive中不建議對數據的改寫,而數據庫中的數據通常是需要經常進行修改的。
執行延遲
Hive 執行延遲較高。數據庫的執行延遲較低。當然,這個是有條件的,即數據規模較小,當數據規模大到超過數據庫的處理能力的時候,Hive的并行計算顯然能體現出優勢。
數據規模
Hive支持很大規模的數據計算;數據庫可以支持的數據規模較小。
這個可以回答的內容就非常多了
例如常見的關系函數 =,<>,<,LIKE
,
日期函數to_date,year,second,weekofyear,datediff
,
條件函數IF,CASE,NVL
字符串函數length,reverse,concat
…
更多的基本函數不一一列舉了,感覺面試官更想聽的是開窗函數,例如:rank,row_number,dense_rank
…
而開窗函數的使用可以說是大數據筆試的熱門考點,所以說嘛,你們都懂得~
這個感覺出現的頻率也很高,基本在面試中都會被問到。
內部表
如果Hive中沒有特別指定,則默認創建的表都是管理表,也稱內部表。由Hive負責管理表中的數據,管理表不共享數據。刪除管理表時,會刪除管理表中的數據和元數據信息。
外部表
當一份數據需要被共享時,可以創建一個外部表指向這份數據。
刪除該表并不會刪除掉原始數據,刪除的是表的元數據。當表結構或者分區數發生變化時,需要進行一步修復的操作。
這是一道很容易混淆的題目,就算不被問到,也是必須要掌握清楚的。
Sort By:分區內有序
Order By:全局排序,只有一個Reducer
Distrbute By:類似MR中Partition,進行分區,結合sort by使用
Cluster By:當Distribute by和Sorts by字段相同時,可以使用Cluster by方式。Cluster by除了具有Distribute by的功能外還兼具Sort by的功能。但是排序只能是升序排序,不能指定排序規則為ASC或者DESC。
RANK() 排序相同時會重復,總數不會變,例如1224
DENSE_RANK() 排序相同時會重復,總數會減少,例如 1223
ROW_NUMBER() 會根據順序去計算,例如 1234
這個時候,面試官可能看你面試得挺順利的,打算問你點“難題”:
在項目中是否自定義過UDF、UDTF函數,以及用他們處理了什么問題,及自定義步驟?
你可以這么回答:
<1> 自定義過
<2> 我一般用UDF函數解析公共字段;用UDTF函數解析事件字段
具體的步驟對應如下:
自定義UDF:繼承UDF,重寫evaluate
方法
自定義UDTF:繼承自GenericUDTF
,重寫3個方法:initialize(自定義輸出的列名和類型),process(將結果返回forward(result)),close
為什么要自定義UDF/UDTF?
因為自定義函數,可以自己埋點Log打印日志,出錯或者數據異常,方便調試
當被問到優化,你應該慶幸自己這趟面試來得值了。為啥?就沖著菌哥給你分析下面的這九大步,面試官還不得當場呆住,這波穩了的節奏~
MapJoin
如果不指定MapJoin或者不符合MapJoin的條件,那么Hive解析器會將Join操作轉換成Common Join,即:在Reduce階段完成join。容易發生數據傾斜。可以用MapJoin把小表全部加載到內存在map端進行join,避免reducer處理。
行列過濾
列處理:在SELECT中,只拿需要的列,如果有,盡量使用分區過濾,少用SELECT *。
行處理:在分區剪裁中,當使用外關聯時,如果將副表的過濾條件寫在Where后面,那么就會先全表關聯,之后再過濾。
合理設置Map數
是不是map數越多越好?
答案是否定的。如果一個任務有很多小文件(遠遠小于塊大小128m),則每個小文件也會被當做一個塊,用一個map任務來完成,而一個map任務啟動和初始化的時間遠遠大于邏輯處理的時間,就會造成很大的資源浪費 。而且,同時可執行的map數是受限的。此時我們就應該減少map數量。
合理設置Reduce數
Reduce個數并不是越多越好
(1)過多的啟動和初始化Reduce也會消耗時間和資源;
(2)另外,有多少個Reduce,就會有多少個輸出文件,如果生成了很多個小文件,那么如果這些小文件作為下一個任務的輸入,則也會出現小文件過多的問題;
在設置Reduce個數的時候也需要考慮這兩個原則:處理大數據量利用合適的Reduce數;使單個Reduce任務處理數據量大小要合適;
嚴格模式
嚴格模式下,會有以下特點:
①對于分區表,用戶不允許掃描所有分區
②使用了order by語句的查詢,要求必須使用limit語句
③限制笛卡爾積的查詢
開啟map端combiner(不影響最終業務邏輯)
這個就屬于配置層面上的優化了,需要我們手動開啟 set hive.map.aggr=true;
壓縮(選擇快的)
設置map端輸出中間結、果壓縮。(不完全是解決數據傾斜的問題,但是減少了IO讀寫和網絡傳輸,能提高很多效率)
小文件進行合并
在Map執行前合并小文件,減少Map數:CombineHiveInputFormat具有對小文件進行合并的功能(系統默認的格式)。HiveInputFormat沒有對小文件合并功能。
其他
列式存儲,采用分區技術,開啟JVM重用…類似的技術非常多,大家選擇一些方便記憶的就OK。
數據傾斜和第九步談到的的性能調優,但凡有點工作經驗的老工程師都會告訴你,這都是面試必問的!那怎么才能回答好呢,慢慢往下看~
概念:
數據的分布不平衡,某些地方特別多,某些地方又特別少,導致的在處理數據的時候,有些很快就處理完了,而有些又遲遲未能處理完,導致整體任務最終遲遲無法完成,這種現象就是數據傾斜
如何產生
① key的分布不均勻或者說某些key太集中
② 業務數據自身的特性,例如不同數據類型關聯產生數據傾斜
③ SQL語句導致的數據傾斜
如何解決
① 開啟map端combiner(不影響最終業務邏輯)
② 開啟數據傾斜時負載均衡
③ 控制空值分布
將為空的key轉變為字符串加隨機數或純隨機數,將因空值而造成傾斜的數據分配到多個Reducer
④ SQL語句調整
a ) 選用join key 分布最均勻的表作為驅動表。做好列裁剪和filter操作,以達到兩表join的時候,數據量相對變小的效果。
b ) 大小表Join:使用map join讓小的維度表(1000條以下的記錄條數)先進內存。在Map端完成Reduce。
c ) 大表Join大表:把空值的Key變成一個字符串加上一個隨機數,把傾斜的數據分到不同的reduce上,由于null值關聯不上,處理后并不影響最終的結果。
d ) count distinct大量相同特殊值:count distinct 時,將值為空的情況單獨處理,如果是計算count distinct,可以不用處理,直接過濾,在最后結果中加1。如果還有其他計算,需要進行group by,可以先將值為空的記錄單獨處理,再和其他計算結果進行union。
前面剛被問到內部表與外部表的區別,現在終于到了分區表和分桶表~作為Hive常用的幾種管理表,被問到也是意料之中!
分區表
介紹
1、分區使用的是表外字段,需要指定字段類型
2、分區通過關鍵字partitioned by(partition_name string)聲明
3、分區劃分粒度較粗
優點
將數據按區域劃分開,查詢時不用掃描無關的數據,加快查詢速度
分桶表
介紹
1、分桶使用的是表內字段,已經知道字段類型,不需要再指定。
2、分桶表通過關鍵字clustered by(column_name) into … buckets聲明
3、分桶是更細粒度的劃分、管理數據,可以對表進行先分區再分桶的劃分策略
優點
用于數據取樣;能夠起到優化加速的作用
回答到這里已經非常不錯,面試官可能又問了:
小伙幾,能講解一下分桶的邏輯嗎?
哈哈哈,好吧~誰讓我看了菌哥寫的殺招,有備而來,絲毫不懼!!!
分桶邏輯:對分桶字段求哈希值,用哈希值與分桶的數量取余,余幾,這個數據就放在那個桶內。
都到了這一步,沒有撤退可言。
靜態分區與動態分區的主要區別在于靜態分區是手動指定,而動態分區是通過數據來進行判斷
詳細來說,靜態分區的列是在編譯時期,通過用戶傳遞來決定的;動態分區只有在 SQL 執行時才能決定
簡單理解就是靜態分區是只給固定的值,動態分區是基于查詢參數的位置去推斷分區的名稱,從而建立分區
可能有的朋友在學習的過程中沒機會使用到視圖和索引,這里菌哥就簡單介紹一下如何在面試的時候回答,更詳細的實操應該等著你們后面去實踐喲~
Hive視圖
視圖是一種使用查詢語句定義的虛擬表,是數據的一種邏輯結構,創建視圖時不會把視圖存儲到磁盤上,定義視圖的查詢語句只有在執行視圖的語句時才會被執行。
通過引入視圖機制,可以簡化查詢邏輯,提高了用戶效率與用戶滿意度。
注意:視圖是只讀的,不能向視圖中插入或是加載數據
Hive索引
和關系型數據庫中的索引一樣,Hive也支持在表中建立索引。適當的索引可以優化Hive查詢數據的性能。但是索引需要額外的存儲空間,因此在創建索引時需要考慮索引的必要性。
注意:Hive不支持直接使用DROP TABLE語句刪除索引表。如果創建索引的表被刪除了,則其對應的索引和索引表也會被刪除;如果表的某個分區被刪除了,則該分區對應的分區索引也會被刪除。
到此,相信大家對“Hive高頻面試題有哪些”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。