您好,登錄后才能下訂單哦!
這期內容當中小編將會給大家帶來有關如何進行spark wordcount執行流程剖析,文章內容豐富且以專業的角度為大家分析和敘述,閱讀完這篇文章希望大家可以有所收獲。
import org.apache.spark.SparkContext import org.apache.spark.SparkConf import org.apache.spark.SparkConf object WordCount { def main(args: Array[String]) { val conf = new SparkConf val sc = new SparkContext(conf) val lines = sc.parallelize(List("hello spark", "hi spark", "wow scala")); val words = lines.flatMap { x => x.split(" ") }; val word = words.map { x => (x, 1) }; val wordCount = word.reduceByKey(_ + _); wordCount.collect().foreach(println) } }
上述就是小編為大家分享的如何進行spark wordcount執行流程剖析了,如果剛好有類似的疑惑,不妨參照上述分析進行理解。如果想知道更多相關知識,歡迎關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。