您好,登錄后才能下訂單哦!
本篇內容介紹了“Spark緩存的使用示例分析”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!
注:因為使用的是內部數據文件, 在這邊就不公布出來了. 大家看看測試代碼跟測試結果即可。
這次測試是在JupyterNotebook這種交互式的環境下測試的. 如果是直接的submit一個job, 可能結果不太一樣。
測試步驟
初始化Spark
from pyspark.sql import SparkSession spark = SparkSession\ .builder\ .appName("Cache Demo")\ .master("spark://10.206.132.113:7077") \ .config('spark.driver.memory', '5g') \ .config('spark.executor.memory', '5g') \ .config("spark.cores.max", 20) \ .getOrCreate()
分別讀兩個文件做測試, 并且其中一個使用Cache
ds1 = spark.read.json(os.path.join(data_path, "data.2018-01-04")) ds2 = spark.read.json(os.path.join(data_path, "data.2018-01-05")) ds1.cache() # 對于***個dataframe進行cache.
注: 這兩個數據文件分別是1月4日跟1月5日產生的. 大小非常接近, 都是3.1G.
為了防止Spark自己做了什么Cache影響實驗, 在這里讀取兩個不同的數據文件.
計算時間:
import time def calc_timing(ds, app_name) : t1 = time.time() related = ds.filter("app_name = '%s'" % app_name) _1stRow = related.first() t2 = time.time() print "cost time:", t2 - t1
測試結果:
calc_timing(ds1, "DrUnzip") # cost time: 13.3130679131 calc_timing(ds2, "DrUnzip") # cost time: 18.0472488403 calc_timing(ds1, "DrUnzip") # cost time: 0.868658065796 calc_timing(ds2, "DrUnzip") # cost time: 15.8150720596
可以看到:
對于DS1, 雖然調用了Cache ,但是因為沒有真正的使用到, 所以***次進行filter操作還是很慢的
第二次使用DS1的時候, 因為有了緩存, 速度快了很多
相對的, DS2兩次執行時間差別不大
如果進到Spark UI 查看具體每個Job的執行時間, 會發現, 只讀取數據文件消耗的時間也就在15~20s.
因此可以猜想, Spark的DataFrame讀取數據之后, 即使進行兩個相同的操作, 消耗的時間也不能減少, 因為Spark 默認不會把DS放到內存之中.
“Spark緩存的使用示例分析”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。