91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

spark入門知識和job任務提交流程

發布時間:2020-04-11 09:11:35 來源:網絡 閱讀:893 作者:ChinaUnicom110 欄目:大數據

spark是Apache開源社區的一個分布式計算引擎,基于內存計算,所以速度要快于hadoop.

下載

  1. 地址spark.apache.org

安裝

  1. 復制一臺單獨的虛擬機,名c

  2. 修改其ip,192.168.56.200

  3. 修改其hostname為c,hostnamectl set-hostname c

  4. 修改/etc/hosts加入對本機的解析

  5. 重啟網絡服務 systemctl restart network

  6. 上傳spark安裝文件到root目錄

  7. 解壓spark到/usr/local下,將其名字修改為spark

本地運行模式

使用spark-submit提交job

  1. cd /usr/local/spark

  2. ./bin/spark-submit --class org.apache.spark.examples.SparkPi ./examples/jars/spark-examples_2.11-2.1.0.jar 10000

使用spark-shell進行交互式提交

  1. 創建root下的文本文件hello.txt

  2. ./bin/spark-shell

  3. 再次連接一個terminal,用jps觀察進程,會看到spark-submit進程

  4. sc

  5. sc.textFile("/root/hello.txt")

  6. val lineRDD = sc.textFile("/root/hello.txt")

  7. lineRDD.foreach(println)

  8. 觀察網頁端情況

  9. val wordRDD = lineRDD.flatMap(line => line.split(" "))

  10. wordRDD.collect

  11. val wordCountRDD = wordRDD.map(word => (word,1))

  12. wordCountRDD.collect

  13. val resultRDD = wordCountRDD.reduceByKey((x,y)=>x+y)

  14. resultRDD.collect

  15. val orderedRDD = resultRDD.sortByKey(false)

  16. orderedRDD.collect

  17. orderedRDD.saveAsTextFile("/root/result")

  18. 觀察結果

  19. 簡便寫法:sc.textFile("/root/hello.txt").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).sortByKey().collect

使用local模式訪問hdfs數據

  1. start-dfs.sh

  2. spark-shell執行:sc.textFile("hdfs://192.168.56.100:9000/hello.txt").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).sortByKey().collect (可以把ip換成master,修改/etc/hosts)

  3. sc.textFile("hdfs://192.168.56.100:9000/hello.txt").flatMap(_.split(" ")).map((_,1)).reduceByKey(_+_).sortByKey().saveAsTextFile("hdfs://192.168.56.100:9000/output1")

spark standalone模式

  1. 在master和所有slave上解壓spark

  2. 修改master上conf/slaves文件,加入slave

  3. 修改conf/spark-env.sh,export SPARK_MASTER_HOST=master

  4. 復制spark-env.sh到每一臺slave

  5. cd /usr/local/spark

  6. ./sbin/start-all.sh

  7. 在c上執行:./bin/spark-shell --master spark://192.168.56.100:7077 (也可以使用配置文件)

  8. 觀察http://master:8080

spark on yarn模式


向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

开平市| 米泉市| 南开区| 长兴县| 靖边县| 文化| 丰都县| 镇雄县| 福贡县| 靖西县| 长兴县| 安阳市| 海伦市| 雅安市| 称多县| 阳城县| 宁都县| 凭祥市| 子洲县| 苗栗市| 讷河市| 包头市| 象山县| 睢宁县| 彩票| 玉溪市| 合江县| 佛坪县| 保康县| 胶南市| 双城市| 克拉玛依市| 长治县| 天峻县| 乐昌市| 祁门县| 富民县| 凤城市| 鲁山县| 弥勒县| 嘉鱼县|