您好,登錄后才能下訂單哦!
協同過濾推薦算法在MapReduce與Spark上實現對比的實例分析,針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。
MapReduce為大數據挖掘提供了有力的支持,但是復雜的挖掘算法往往需要多個MapReduce作業才能完成,多個作業之間存在著冗余的磁盤讀寫開銷和多次資源申請過程,使得基于MapReduce的算法實現存在嚴重的性能問題。大處理處理后起之秀Spark得益于其在迭代計算和內存計算上的優勢,可以自動調度復雜的計算任務,避免中間結果的磁盤讀寫和資源申請過程,非常適合數據挖掘算法。騰訊TDW Spark平臺基于社區最新Spark版本進行深度改造,在性能、穩定和規模方面都得到了極大的提高,為大數據挖掘任務提供了有力的支持。
下面將介紹基于物品的協同過濾推薦算法案例在TDW Spark與MapReudce上的實現對比,相比于MapReduce,TDW Spark執行時間減少了66%,計算成本降低了40%。
算法介紹
互聯網的發展導致了信息爆炸。面對海量的信息,如何對信息進行刷選和過濾,將用戶最關注最感興趣的信息展現在用戶面前,已經成為了一個亟待解決的問題。推薦系統可以通過用戶與信息之間的聯系,一方面幫助用戶獲取有用的信息,另一方面又能讓信息展現在對其感興趣的用戶面前,實現了信息提供商與用戶的雙贏。
協同過濾推薦(Collaborative Filtering Recommendation)算法是最經典最常用的推薦算法,算法通過分析用戶興趣,在用戶群中找到指定用戶的相似用戶,綜合這些相似用戶對某一信息的評價,形成系統對該指定用戶對此信息的喜好程度預測。協同過濾可細分為以下三種:
User-based CF: 基于User的協同過濾,通過不同用戶對Item的評分來評測用戶之間的相似性,根據用戶之間的相似性做出推薦;
Item-based CF: 基于Item的協同過濾,通過用戶對不同Item的評分來評測Item之間的相似性,根據Item之間的相似性做出推薦;
Model-based CF: 以模型為基礎的協同過濾(Model-based Collaborative Filtering)是先用歷史資料得到一個模型,再用此模型進行預測推薦。
問題描述
輸入數據格式:Uid,ItemId,Rating (用戶Uid對ItemId的評分)。
輸出數據:每個ItemId相似性最高的前N個ItemId。
由于篇幅限制,這里我們只選擇基于Item的協同過濾算法解決這個例子。
算法邏輯
基于Item的協同過濾算法的基本假設為兩個相似的Item獲得同一個用戶的好評的可能性較高。因此,該算法首先計算用戶對物品的喜好程度,然后根據用戶的喜好計算Item之間的相似度,最后找出與每個Item最相似的前N個Item。該算法的詳細描述如下:
計算用戶喜好:不同用戶對Item的評分數值可能相差較大,因此需要先對每個用戶的評分做二元化處理,例如對于某一用戶對某一Item的評分大于其給出的平均評分則標記為好評1,否則為差評0。
計算Item相似性:采用Jaccard系數作為計算兩個Item的相似性方法。狹義Jaccard相似度適合計算兩個集合之間的相似程度,計算方法為兩個集合的交集除以其并集,具體的分為以下三步。
1)Item好評數統計,統計每個Item的好評用戶數。
2)Item好評鍵值對統計,統計任意兩個有關聯Item的相同好評用戶 數。
3)Item相似性計算,計算任意兩個有關聯Item的相似度。
找出最相似的前N個Item。這一步中,Item的相似度還需要歸一化后整合,然后求出每個Item最相似的前N個Item,具體的分為以下三步。
1)Item相似性歸一化。
2)Item相似性評分整合。
3)獲取每個Item相似性最高的前N個Item。
基于MapReduce的實現方案
使用MapReduce編程模型需要為每一步實現一個MapReduce作業,一共存在包含七個MapRduce作業。每個MapReduce作業都包含Map和Reduce,其中Map從HDFS讀取數,輸出數據通過Shuffle把鍵值對發送到Reduce,Reduce階段以<key,Iterator<value>>作為輸入,輸出經過處理的鍵值對到HDFS。其運行原理如圖1 所示。
七個MapReduce作業意味著需要七次讀取和寫入HDFS,而它們的輸入輸出數據存在關聯,七個作業輸入輸出數據關系如圖2所示。
相對于MapReduce,Spark在以下方面優化了作業的執行時間和資源使用。
DAG編程模型。通過Spark的DAG編程模型可以把七個MapReduce簡化為一個Spark作業。Spark會把該作業自動切分為八個Stage,每個Stage包含多個可并行執行的Tasks。Stage之間的數據通過Shuffle傳遞。最終只需要讀取和寫入HDFS一次。減少了六次HDFS的讀寫,讀寫HDFS減少了70%。
Spark作業啟動后會申請所需的Executor資源,所有Stage的Tasks以線程的方式運行,共用Executors,相對于MapReduce方式,Spark申請資源的次數減少了近90%。
Spark引入了RDD(Resilient Distributed Dataset)模型,中間數據都以RDD的形式存儲,而RDD分布存儲于slave節點的內存中,這就減少了計算過程中讀寫磁盤的次數。RDD還提供了Cache機制,例如對上圖的rdd3進行Cache后,rdd4和rdd7都可以訪問rdd3的數據。相對于MapReduce減少MR2和MR3重復讀取相同數據的問題。
效果對比
測試使用相同規模的資源,其中MapReduce方式包含200個Map和100個Reduce,每個Map和Reduce配置4G的內存;由于Spark不再需要Reduce資源, 而MapReduce主要邏輯和資源消耗在Map端,因此使用200和400個Executor做測試,每個Executor包含4G內存。測試結果如下表所示,其中輸入記錄約38億條。
對比結果表的第一行和第二行,Spark運行效率和成本相對于MapReduce方式減少非常明顯,其中,DAG模型減少了70%的HDFS讀寫、cache減少重復數據的讀取,這兩個優化即能減少作業運行時間又能降低成本;而資源調度次數的減少能提高作業的運行效率。
對比結果表的第二行和第三行,增加一倍的Executor數目,作業運行時間減少約50%,成本增加約25%,從這個結果看到,增加Executor資源能有效的減少作業的運行時間,但并沒有做到完全線性增加。這是因為每個Task的運行時間并不是完全相等的, 例如某些task處理的數據量比其他task多;這可能導致Stage的最后時刻某些Task未結束而無法啟動下一個Stage,另一方面作業是一直占有Executor的,這時候會出現一些Executor空閑的狀況,于是導致了成本的增加。
數據挖掘類業務大多具有復雜的處理邏輯,傳統的MapReduce/Pig類框架在應對此類數據處理任務時存在著嚴重的性能問題。針對這些任務,如果利用Spark的迭代計算和內存計算優勢,將會大幅降低運行時間和計算成本。TDW目前已經維護了千臺規模的Spark集群,并且會在資源利用率、穩定性和易用性等方面做進一步的提升和改進,為業務提供更有利的支持。
關于協同過濾推薦算法在MapReduce與Spark上實現對比的實例分析問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。