您好,登錄后才能下訂單哦!
本篇內容主要講解“Spark shuffle和hadoop shuffle的區別是什么”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“Spark shuffle和hadoop shuffle的區別是什么”吧!
Q1:AppClient和worker、master之間的關系是什么?
:AppClient是在StandAlone模式下SparkContext.runJob的時候在Client機器上應 用程序的代表,要完成程序的registerApplication等功能;
當程序完成注冊后Master會通過Akka發送消息給客戶端來啟動Driver;
在Driver中管理Task和控制Worker上的Executor來協同工作;
Q2:Spark的shuffle 和hadoop的shuffle的區別大么?
Spark的Shuffle是一種比較嚴格意義上的shuffle,在Spark中Shuffle是有RDD操作的依賴關系中的Lineage上父RDD中的每個partition元素的內容交給多個子RDD;
在Hadoop中的Shuffle是一個相對模糊的概念,Mapper階段介紹后把數據交給Reducer就會產生Shuffle,Reducer三階段的第一個階段即是Shuffle;
Q3:Spark 的HA怎么處理的?
對于Master的HA,在Standalone模式下,Worker節點自動是HA的,對于Master的HA,一般采用Zookeeper;
Utilizing ZooKeeper to provide leader election and some state storage, you can launch multiple Masters in your cluster connected to the same ZooKeeper instance. One will be elected “leader” and the others will remain in standby mode. If the current leader dies, another Master will be elected, recover the old Master’s state, and then resume scheduling. The entire recovery process (from the time the the first leader goes down) should take between 1 and 2 minutes. Note that this delay only affects scheduling new applications – applications that were already running during Master failover are unaffected;
對于Yarn和Mesos模式,ResourceManager一般也會采用ZooKeeper進行HA;
到此,相信大家對“Spark shuffle和hadoop shuffle的區別是什么”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。