您好,登錄后才能下訂單哦!
package mydemo import org.apache.spark.{SparkConf, SparkContext} object MyWordContextDemo { def main(args: Array[String]): Unit = { // 創建一個 Config val conf = new SparkConf().setAppName("MyWordContext") // 創建 SparkContext 對象 val sc = new SparkContext(conf) // 使用sc 對象執行相應的算子 sc.textFile(args(0)) // 從第一個參數獲取文件路徑并打開 .flatMap(_.split(" ")) // 先 map 再壓平 .map((_, 1)) // 將單詞和 1 構成元組 .reduceByKey(_ + _) // 根據Key 進行 Reduce,并將 value 累加 .saveAsTextFile(args(1)) // 將結果輸出到文件 // 停止 SparkContext 對象 sc.stop() } }
==> 運行程序:
---> 首先將程序打包成 jar 包
---> 執行以下命令
spark-submit --master spark://bigdata0:7077 --class mydemo.MyWordContextDemo scalawordcontext.jar hdfs://192.168.10.210:9000:/output/scala/wordcontext.txt
---> 命令解釋:
---- spark-submit spark 命令
---- --master spark://bigdata0:7077
---- --class 指定類名
---- scalawordcontext.jar 將自己與的程序打成的jar 包
---- hdfs://192.168.10.210:9000/out/scala/wordcontext.txt 指定處理好的數據輸出的文件
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。