91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Hadoop和Spark的定義是什么

發布時間:2021-12-10 11:31:10 來源:億速云 閱讀:278 作者:iii 欄目:大數據

本篇內容介紹了“Hadoop和Spark的定義是什么”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!

Hadoop的定義

Hadoop是Apache.org的一個項目,其實是一種軟件庫和框架,以便使用簡單的編程模型,跨計算器集群對龐大數據集(大數據)進行分布式 處理。Hadoop可靈活擴展,從單一計算機系統,到提供本地存儲和計算能力的數千個商用系統,它都能輕松支持。實際上,Hadoop就是大數據分析領域 的重量級大數據平臺。

Hadoop由協同運行、構建Hadoop框架的多個模塊組成。Hadoop框架的主要模塊包括如下:

  • Hadoop Common

  • Hadoop分布式文件系統(HDFS)

  • Hadoop YARN

  • Hadoop MapReduce

雖然上述四個模塊構成了Hadoop的核心,不過還有其他幾個模塊。這些模塊包括:Ambari、Avro、Cassandra、Hive、  Pig、Oozie、Flume和Sqoop,它們進一步增強和擴展了Hadoop的功能,得以擴大到大數據應用領域,處理龐大數據集。

許多使用大數據集和分析工具的公司使用Hadoop。它已成為大數據應用系統中事實上的標準。設計Hadoop的初衷是處理這項任務:搜尋和搜索數 十億個網頁,將這些信息收集到數據庫中。正是由于渴望搜尋和搜索互聯網,才有了Hadoop的HDFS及分布式處理引擎MapReduce。

如果數據集變得極其龐大或極其復雜,以至于當前的解決方案無法在數據用戶認為合理的時間段內有效地處理信息,Hadoop對公司就會大有用處。

MapReduce是一種出色的文本處理引擎,它理應如此,因為搜尋互聯網和搜索互聯網(它的首要任務)都是基于文本的任務。

Spark的定義

Apache  Spark開發人員聲稱它是“一種用于數據大規模處理的快速通用引擎”。相比之下,如果說Hadoop的大數據框架好比是800磅重的大猩猩,Spark就好比是130磅重的獵豹。

雖然批評Spark的內存處理技術的人士承認,Spark確實速度很快(最多比Hadoop  MapReduce快100倍),但他們可能并不愿意承認它在磁盤上運行起來速度最多快10倍。Spark還可以執行批量處理,然而它真正擅長的是處理流工作負載、交互式查詢和基于機器的學習。

相比MapReduce基于磁盤的批量處理引擎,Spark賴以成名之處是其數據實時處理功能。Spark與Hadoop及其模塊兼容。實際上,在Hadoop的項目頁面上,Spark就被列為是一個模塊。

Spark有自己的頁面,因為雖然它可以通過YARN(另一種資源協調者)在Hadoop集群中運行,但是它也有一種獨立模式。它可以作為  Hadoop模塊來運行,也可以作為獨立解決方案來運行;這樣一來,很難直接比較兩者。然而隨著時間的推移,一些大數據科學家預計Spark會出現分叉,可能會取代Hadoop,尤其是在更快速地訪問處理的數據至關重要的情況下。

Spark是一種集群計算框架,這意味著它更多地與MapReduce競爭,而不是與整個Hadoop生態系統競爭。比如說,Spark沒有自己的分布式文件系統,但可以使用HDFS。

Spark使用內存,也可以使用磁盤進行處理,而MapReduce完全基于磁盤。MapReduce和Spark的主要區別在于,MapReduce使用持久存儲,而Spark使用彈性分布式數據集(RDDS),下面容錯部分有更詳細的解釋。

性能

網上不缺關于Spark與MapReduce相比有多快的信息。對兩者進行比較有個問題,那就是它們處理數據的方式不一樣,數據處理部分有介紹。Spark之所以如此快速,原因在于它在內存中處理一切數據。沒錯,它還可以使用磁盤來處理未全部裝入到內存中的數據。

Spark的內存處理為來自多個來源的數據提供了近乎實時分析的功能:營銷活動、機器學習、物聯網傳感器、日志監控、安全分析和社交媒體網站。另 外,MapReduce使用批量處理,其實從來就不是為驚人的速度設計的。它的初衷是不斷收集來自網站的信息,不需要這些數據具有實時性或近乎實時性。

易用性

眾所周知,Spark以性能見長,但是它也因易用性而小有名氣,原因是它隨帶易于使用的API,支持Scala(原生語言)、Java、Python和Spark  SQL。Spark SQL非常類似于SQL 92,所以幾乎不需要經歷一番學習,馬上可以上手。

Spark還有一種交互模式,那樣開發人員和用戶都可以獲得查詢和其他操作的即時反饋。MapReduce沒有交互模式,不過有了Hive和Pig等附加模塊,采用者使用MapReduce來得容易一點。

成本

MapReduce和Spark都是Apache項目,這意味著它們是開源免費軟件產品。雖然軟件不需要成本,但是派人用硬件運行任何一種平臺帶來了成本。這兩種產品都設計成可以在商用硬件上運行,比如所謂的低成本白盒服務器系統。

MapReduce和Spark在同樣的硬件上運行,那么這兩種解決方案的成本差異體現在哪里?MapReduce使用常規數量的內存,因為數據處 理基于磁盤,所以公司得購買速度更快的磁盤和大量磁盤空間來運行MapReduce。MapReduce還需要更多的系統,將磁盤輸入/輸出分布到多個系 統上。

Spark需要大量內存,但是可以使用常規數量的常規轉速磁盤。一些用戶抱怨會產生臨時文件,需要清理。這些臨時文件通常保存7天,以便加快針對同 一數據集的任何處理。磁盤空間相對便宜,由于Spark不使用磁盤輸入/輸入用于處理,已使用的磁盤空間可以用于SAN或NAS。

然而,由于需要大量內存在內存中處理一切數據,Spark系統的成本更高,這點沒錯。但是Spark的技術同時減少了所需的系統數量。所以,***的 情形是,系統成本較高,但是數量大大減少。也許到時候,Spark實際上可以降低每個計算單位的成本,盡管內存方面有額外的要求。

舉例說明,“Spark已證明在數據多達PB的情況下也輕松自如。它被用于在數量只有十分之一的機器上,對100TB數據進行排序的速度比Hadoop  MapReduce快3倍。”這一成績讓Spark成為2014年Daytona GraySort基準。

兼容性

MapReduce和Spark相互兼容;MapReduce通過JDBC和ODC兼容諸多數據源、文件格式和商業智能工具,Spark具有與MapReduce同樣的兼容性。

數據處理

MapReduce是一種批量處理引擎。MapReduce以順序步驟來操作,先從集群讀取數據,然后對數據執行操作,將結果寫回到集群,從集群讀 取更新后的數據,執行下一個數據操作,將那些結果寫回到結果,依次類推。Spark執行類似的操作,不過是在內存中一步執行。它從集群讀取數據后,對數據 執行操作,然后寫回到集群。

Spark還包括自己的圖形計算庫GraphX。GraphX讓用戶可以查看與圖形和集合同樣的數據。用戶還可以使用彈性分布式數據集(RDD),改變和聯合圖形,容錯部分作了討論。

容錯

至于容錯,MapReduce和Spark從兩個不同的方向來解決問題。MapReduce使用TaskTracker節點,它為  JobTracker節點提供了心跳(heartbeat)。如果沒有心跳,那么JobTracker節點重新調度所有將執行的操作和正在進行的操作,交 給另一個TaskTracker節點。這種方法在提供容錯性方面很有效,可是會大大延長某些操作(即便只有一個故障)的完成時間。

Spark使用彈性分布式數據集(RDD),它們是容錯集合,里面的數據元素可執行并行操作。RDD可以引用外部存儲系統中的數據集,比如共享式文件系統、HDFS、HBase,或者提供Hadoop  InputFormat的任何數據源。Spark可以用Hadoop支持的任何存儲源創建RDD,包括本地文件系統,或前面所列的其中一種文件系統。

RDD擁有五個主要屬性:

  • 分區列表

  • 計算每個分片的函數

  • 依賴其他RDD的項目列表

  • 面向鍵值RDD的分區程序(比如說RDD是散列分區),這是可選屬性

  • 計算每個分片的***位置的列表(比如HDFS文件的數據塊位置),這是可選屬性

RDD可能具有持久性,以便將數據集緩存在內存中。這樣一來,以后的操作大大加快,最多達10倍。Spark的緩存具有容錯性,原因在于如果RDD的任何分區丟失,就會使用原始轉換,自動重新計算。

可擴展性

按照定義,MapReduce和Spark都可以使用HDFS來擴展。那么,Hadoop集群能變得多大呢?

據稱雅虎有一套42000個節點組成的Hadoop集群,可以說擴展無極限。***的已知Spark集群是8000個節點,不過隨著大數據增多,預計集群規模也會隨之變大,以便繼續滿足吞吐量方面的預期。

安全

Hadoop支持Kerberos身份驗證,這管理起來有麻煩。然而,第三方廠商讓企業組織能夠充分利用活動目錄Kerberos和LDAP用于身份驗證。同樣那些第三方廠商還為傳輸中數據和靜態數據提供數據加密。

Hadoop分布式文件系統支持訪問控制列表(ACL)和傳統的文件權限模式。Hadoop為任務提交中的用戶控制提供了服務級授權(Service Level  Authorization),這確保客戶擁有正確的權限。

Spark的安全性弱一點,目前只支持通過共享密鑰(密碼驗證)的身份驗證。Spark在安全方面帶來的好處是,如果你在HDFS上運行Spark,它可以使用HDFS  ACL和文件級權限。此外,Spark可以在YARN上運行,因而能夠使用Kerberos身份驗證。

“Hadoop和Spark的定義是什么”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

昌图县| 缙云县| 治多县| 湘乡市| 大同市| 墨竹工卡县| 池州市| 突泉县| 阳朔县| 天等县| 三都| 诏安县| 永福县| 长治市| 咸宁市| 延吉市| 南华县| 河曲县| 江源县| 抚顺市| 兴安盟| 大连市| 灵寿县| 陇南市| 化隆| 霸州市| 托克逊县| 类乌齐县| 团风县| 通河县| 宁明县| 邳州市| 神木县| 大洼县| 仁化县| 梨树县| 安仁县| 阿合奇县| 龙游县| 武冈市| 合作市|