您好,登錄后才能下訂單哦!
集群一共有3臺機器,集群使用hadoop用戶運行,3臺機器如下:
1 | DEV-HADOOP-01 | 192.168.9.110 |
2 | DEV-HADOOP-02 | 192.168.9.111 |
3 | DEV-HADOOP-03 | 192.168.9.112 |
配置集群間hadoop用戶的無密碼登錄
配置每臺機器的/etc/hosts
安裝JDK1.8.0_60
安裝scala
下載scala-2.11.7.tar
把scala-2.11.7.tar解壓到/data/server目錄
設置環境變量 /etc/profile
export SCALA_HOME=/usr/scala/scala-2.11.7
使配置生效 source /etc/profile
安裝spark
下載spark-1.5.0.tar
把spark-1.5.0.tar解壓到/data/server目錄
配置環境變量 /etc/profile
export SPARK_HOME=/data/server/spark-1.5.0-bin-hadoop2.6
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
使配置生效 source /etc/profile
修改spark配置文件
spark-env.sh配置文件
export SCALA_HOME=/data/server/scala-2.11.7
export JAVA_HOME=/usr/java/jdk1.8.0_60/
export SPARK_MASTER_IP=DEV-HADOOP-01
export SPARK_WORKER_MEMORY=2048m
slaves配置文件
DEV-HADOOP-02
DEV-HADOOP-03
啟動spark集群
sbin/start-all.sh
集群啟動驗證
執行jps命令,master節點可以看到Master進程,slave可以看到Worker進程
查看Spark UI
http://192.168.9.110:8080/
關閉集群
sbin/stop-all.sh
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。