您好,登錄后才能下訂單哦!
Apache Hudi中云數據湖的解決方案是什么,相信很多沒有經驗的人對此束手無策,為此本文總結了問題出現的原因和解決方法,通過這篇文章希望你能解決這個問題。
開源Apache Hudi項目為Uber等大型組織提供流處理能力,每天可處理數據湖上的數十億條記錄。
隨著世界各地的組織采用該技術,Apache開源數據湖項目已經日漸成熟。
Apache Hudi(Hadoop Upserts Deletes and Incrementals)是一個數據湖項目,可在與Apache Hadoop兼容的云存儲系統(包括Amazon S3、Aliyun OSS)上進行流數據處理。
該項目最初于2016年在Uber開發,于2017年成為開源,并于2019年1月進入Apache孵化器。作為開源的結果反饋,Hudi已被阿里巴巴,騰訊,AWS,Uber和Kyligence等主要技術供應商的采用。
6月4日,Hudi(發音為"Hoodie")正式成為Apache軟件基金會(ASF)的頂級項目,這是一個里程碑,標志著該項目已經達到了較高的代碼成熟度和開發人員社區的參與。ASF是Hadoop,Spark,Kafka和其他廣泛使用的數據庫和數據管理程序的地方。
Hudi現在是被多個組織使用的開源項目,其中Uber一直是堅定的用戶。
Uber數據工程經理Tanvi Kothari表示,Uber使用Hudi每天處理超過150PB數據湖中的5,000億條記錄。
Kothari運營著Uber全球數據倉庫團隊,該團隊負責為Uber的所有業務提供核心數據表。她指出,Hudi支持Uber對10,000多個表和數千個數據管道的讀寫進行增量處理。
Kothari說:”Hudi消除了處理大數據中的許多挑戰,它可以幫助您擴展ETL [Extract,Transform,Load]管道并提高數據保真度。”
大數據分析供應商Kyligence Solutions將Apache Hudi作為產品的一部分,該公司在中國上海和加利福尼亞州圣何塞設有辦事處,Kyligence的合伙人兼首席架構師史少鋒說道,他的公司使用許多Apache開源項目,包括Apache Kylin,Hadoop和Spark技術,來幫助企業管理數據。
史少鋒表示,Apache Hudi為Kyligence提供了一種直接在Hadoop分布式文件系統(HDFS)或Amazon S3上管理更改數據集的方法。
Kyligence于2019年開始為美國客戶使用Hudi,同時在此期間,AWS推出了與Hudi和Amazon Elastic MapReduce(EMR)服務的集成。Kyligence Cloud服務現在還支持Hudi作為其所有用戶進行在線分析處理的數據源格式。
史表示很高興看到Hudi畢業成為Apache的頂級項目的成就,他說,“Hudi有一個開放而熱情的社區,甚至將一系列Hudi文章翻譯成中文,使中國用戶更容易了解該技術。”
ASF Apache Hudi的共同創始人兼VP Vinoth Chandar說,Hudi提供了使用數據流的功能,并使用戶能夠更新數據集。
Chandar將Hudi啟用的流處理視為一種數據處理方式,在這種方式中,數據湖管理員可以處理增量數據,然后可以使用該數據。
Chandar說:“真正考慮Hudi的一個好方法是作為一個數據存儲或數據庫,該數據庫在[AWS] S3、[Aliyun] OSS中存儲的數據之上提供事務處理功能。”
Chandar接著說,Hudi成為頂級項目也反映了該項目的成熟度。但是,盡管Hudi現在是Apache的頂級項目,但這項工作尚未達到1.0版本,最新的更新是3月25日發布的0.5.2里程碑(畢業后又發布了0.5.3版本)。
Hudi開發人員目前正在開發0.6.0版本,Chandar表示該版本將于6月底發布。Chandar說,該版本將是一個重要的里程碑,它將具有性能增強和改進的數據遷移功能,以幫助用戶將數據帶入Hudi數據湖。他說:“我們的計劃是至少每個季度發布一個主要版本,然后希望每個月在主要版本之上發布bugfix版本。”
看完上述內容,你們掌握Apache Hudi中云數據湖的解決方案是什么的方法了嗎?如果還想學到更多技能或想了解更多相關內容,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。