91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何進行spark-shell的學習

發布時間:2021-12-16 21:56:57 來源:億速云 閱讀:119 作者:柒染 欄目:云計算

如何進行spark-shell的學習,針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。

今天我就給大家介紹一下spark-shell的的應用

spark-shell是spark的一種運行腳本。它已經初始化了sparkContext(sc)和SparkSesssion(Spark)

大家可以到spark的安裝路徑下

bin/spark-shell

如何進行spark-shell的學習

出現上圖就說明正確。下面就可以操作spark了

注意spark用的是scala語言

val text = sc.textFile("/usr/wordcount.txt")

text.count()

如何進行spark-shell的學習

運行結果如果所示。注意這里我們是加載的本地文件,不是hdfs文件

下面我們對hdfs文件進行操作。寫出wordcount程序

首先,先上傳文件到hdfs

./hdfs dfs -put /usr/a.txt /user/spark

然后對數據進行操作

 val text = sc.textFile("hdfs://192.168.153.11:9000/user/spark/a.txt")

val counts = text.flatMap(line => line.split(" ")).map(word => (word, 1)).reduceByKey(_ + _)

 counts.saveAsTextFile("hdfs://192.168.153.11:9000/user/spark/wordcount")

如何進行spark-shell的學習

下面一個也是計算PI的demo

如何進行spark-shell的學習

關于如何進行spark-shell的學習問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

建昌县| 铜山县| 霸州市| 宝坻区| 巨野县| 镇坪县| 景东| 出国| 新闻| 商南县| 拉萨市| 华容县| 马尔康县| 蒙阴县| 定兴县| 开阳县| 遂平县| 前郭尔| 丹江口市| 顺平县| 金堂县| 东海县| 阳江市| 鹰潭市| 黑水县| 景谷| 诸暨市| 广州市| 株洲市| 屯昌县| 忻州市| 阜城县| 任丘市| 阿克陶县| 萝北县| 滦南县| 镇原县| 盐津县| 郧西县| 汤原县| 札达县|