您好,登錄后才能下訂單哦!
這篇文章將為大家詳細講解有關spark1.4.1如何配置,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。
1.創建腳本
cd /opt/spark-1.4.1-bin-hadoop2.6/conf cp spark-env.sh.template spark-env.sh cp slaves.template slaves
2.程序加入環境變量
vi spark-env.sh export JAVA_HOME=/opt/jdk1.7.0_75 export SCALA_HOME=/opt/scala-2.11.6 export HADOOP_CONF_DIR=/opt/hadoop-2.6.0/etc/hadoop # spark的work目錄臨時文件自動清理,清理頻率每半小時 export SPARK_WORKER_DIR="/home/hadoop/spark/worker/" export SPARK_WORKER_OPTS="-Dspark.worker.cleanup.enabled=true -Dspark.worker.cleanup.interval=1800" vi slaves 填入各節點hostname
3.系統加入環境變量
vi /etc/profile export SPARK_HOME=/opt/spark-1.4.1-bin-hadoop2.6 export PATH=$SPARK_HOME/bin:$PATH
4.啟動
cd ../sbin/ ./start-all.sh
5.查看進程是否啟動
jps 4211 Master 4367 Worker
6.進入spark的web頁面 http://spore:8080/
7.使用spark-shell
cd ../bin/ ./spark-shell
8.sparkUI http://spore:4040
源碼閱讀,查看spark支持哪些sql關鍵字:
spark\sql\catalyst\src\main\scala\org\apache\spark\sql\catalyst\SQLParser.scala
spark-sql自定義函數例子
http://colobu.com/2014/12/11/spark-sql-quick-start/
如果要使用bin/spark-sql這個命令
必須啟動hive metastore且conf/hive-site.xml內必須要有hive.metastore.uris的配置,例如
<configuration> <property> <name>hive.metastore.uris</name> <value>thrift://byd0087:9083</value> </property> </configuration>
啟動bin/spark-sql,即可使用hive的HQL語句,速度可比hive快多了
關于“spark1.4.1如何配置”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,使各位可以學到更多知識,如果覺得文章不錯,請把它分享出去讓更多的人看到。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。