您好,登錄后才能下訂單哦!
這篇文章主要講解了“HIVE實現wordcount的過程”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“HIVE實現wordcount的過程”吧!
1、建表并關聯數據:
進入hive命令行:
hive
執行:
create external table wordcounts(line string) row format delimited fields terminated by '\n' stored as textfile location '/input/wordcount';
2、創建ruozedata.txt文件,并上傳hdfs中的/input/wordcount目錄下。
vi ruozedata.txt
hello,ruoze
hello,jepsondb
hello,www.ruozedata.com
hi,man
hi,gril
上傳命令:hdfs dfs -put ruozedata.txt /input/wordcount
3、進入HIVE,查詢是否已經將數據關聯到表中
select * from wordcounts;
4、進入HIVE,進行拆分,把每行數據拆分成單詞,這里需要用到一個hive的內置表生成函數(UDTF):explode(array),參數是array,其實就是行變多列:
split是拆分函數,與java的split功能一樣,這里是按照逗號拆分,再對子查詢中的結果進行group by word,執行完hql語句如下:
select word, count(*) from (select explode(split(line, ",")) as word from wordcounts) t group by word;
總結:hive比較簡便,對于比較復雜的統計操作可以建一些中間表。
感謝各位的閱讀,以上就是“HIVE實現wordcount的過程”的內容了,經過本文的學習后,相信大家對HIVE實現wordcount的過程這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。