您好,登錄后才能下訂單哦!
(一)Hive+Solr簡介
Hive作為Hadoop生態系統里面離線的數據倉庫,可以非常方便的使用SQL的方式來離線分析海量的歷史數據,并根據分析的結果,來干一些其他的事情,如報表統計查詢等。
Solr作為高性能的搜索服務器,能夠提供快速,強大的全文檢索功能。
(二)為什么需要hive集成solr?
有時候,我們需要將hive的分析完的結果,存儲到solr里面進行全文檢索服務,比如以前我們有個業務,對我們電商網站的搜索日志使用hive分析完后 存儲到solr里面做報表查詢,因為里面涉及到搜索關鍵詞,這個字段是需要能分詞查詢和不分詞查詢的,通過分詞查詢可以查看改詞的相關的產品在某一段時間內的一個走勢圖。 有時候,我們又需要將solr里面的數據加載到hive里面,使用sql完成一些join分析功能, 兩者之間優劣互補,以更好的適應我們的業務需求。當然網上已經有一些hive集成solr的開源項目,但由于 版本比較舊,所以無法在新的版本里面運行,經過散仙改造修補后的可以運行在最新的版本。
(三)如何才能使hive集成solr?
所謂的集成,其實就是重寫hadoop的MR編程接口的一些組件而已。我們都知道MR的編程接口非常靈活,而且高度抽象,MR不僅僅可以從HDFS上加載 數據源,也可以從任何非HDFS的系統中加載數據,當然前提是我們需要自定義:
InputFormat
OutputFormat
RecordReader
RecordWriter
InputSplit
組件,雖然稍微麻煩了點,但從任何地方加載數據這件事確實可以做到,包括mysql,sqlserver,oracle,mongodb, solr,es,redis等等。
上面說的是定制Hadoop的MR編程接口,在Hive里面除了上面的一些組件外,還需要額外定義SerDe組件和組裝StorageHandler,在hive里面 SerDe指的是 Serializer and Deserializer,也就是我們所說的序列化和反序列化,hive需要使用serde和fileinput來讀寫hive 表里面的一行行數據。
讀的流程:
HDFS files / every source -> InputFileFormat --> --> Deserializer --> Row object
寫的流程:
Row object --> Serializer --> --> OutputFileFormat --> HDFS files / every source
(四)hive集成solr后能干什么?
(1)讀取solr數據,以hive的支持的SQL語法,能進行各種聚合,統計,分析,join等
(2)生成solr索引,一句SQL,就能通過MR的方式給大規模數據構建索引
(五)如何安裝部署以及使用?
源碼在這里,不在粘貼了,已經上傳github了,有需要的朋友可以使用 git clonehttps://github.com/qindongliang/hive-solr 后,修改少許pom文件后,執行
mvn clean package
命令構建生成jar包,并將此jar包拷貝至hive的lib目錄即可
例子如下:
(1)hive讀取solr數據
建表:
Sql代碼
--存在表就刪除
drop table if exists solr;
--創建一個外部表
create external table solr (
--定義字段,這里面的字段需要與solr的字段一致
rowkey string,
sname string
)
--定義存儲的storehandler
stored by "com.easy.hive.store.SolrStorageHandler"
--配置solr屬性
tblproperties('solr.url' = 'http://192.168.1.28:8983/solr/a',
'solr.query' = '*:*',
'solr.cursor.batch.size'='10000',
'solr.primary_key'='rowkey'
);
執行bin/hive 命令,進行hive的命令行終端:
--查詢所有數據
select * from solr limit 5;
--查詢指定字段
select rowkey from solr;
--以mr的方式聚合統計solr數據
select sname ,count(*) as c from solr group by sname order by c desc
(2)使用hive給solr構建索引的例子
首先構建數據源表:
Sql代碼
--如果存在就刪除
drop table if exists index_source;
--構建一個數據表
CREATE TABLE index_source(id string, yname string,sname string) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' STORED AS TEXTFILE;
--向數據源里面導入本地數據
load data local inpath '/ROOT/server/hive/test_solr' into table index_source;
其次,構建solr的關聯表:
--刪除已經存在的表
drop table if exists index_solr;
--創建關聯solr表
create external table index_solr (
id string,
yname string,
sname string
)
--定義存儲引擎
stored by "com.easy.hive.store.SolrStorageHandler"
--設置solr服務屬性
tblproperties('solr.url' = 'http://192.168.1.28:8983/solr/b',
'solr.query' = '*:*',
'solr.cursor.batch.size'='10000',
'solr.primary_key'='id'
);
最后,執行下面的sql命令,即可給數據源中的數據,構建solr索引:
Sql代碼
--注冊hive-solr的jar包,否則MR方式運行的時候,將不能正常啟動
add jar /ROOT/server/hive/lib/hive-solr.jar;
--執行插入命令
INSERT OVERWRITE TABLE index_solr SELECT * FROM index_source ;
--執行成功之后,即可在solr的終端界面查看,也可以再hive里面執行下面的solr查詢
select * from index_solr limit 10 ;
(六)他們還能其他的框架集成么?
當然,作為開源獨立的框架,我們可以進行各種組合, hive也可以和elasticsearch進行集成,也可以跟mongodb集成, solr也可以跟spark集成,也可以跟pig集成,但都需要我們自定義相關的組件才行,思路大致與這個項目的思路一致。
(七)本次測試通過的基礎環境
Apache Hadoop2.7.1
Apache Hive1.2.1
Apache Solr5.1.0
(八)感謝并參考的資料:
https://github.com/mongodb/mongo-hadoop/tree/master/hive/src/main/java/com/mongodb/hadoop/hive
https://github.com/lucidworks/hive-solr
https://github.com/chimpler/hive-solr
https://cwiki.apache.org/confluence/display/Hive/DeveloperGuide#DeveloperGuide-HowtoWriteYourOwnSerDe
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。