91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

windows下spark如何搭建

發布時間:2021-11-18 16:54:28 來源:億速云 閱讀:183 作者:小新 欄目:云計算

這篇文章主要為大家展示了“windows下spark如何搭建”,內容簡而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領大家一起研究并學習一下“windows下spark如何搭建”這篇文章吧。

系統:windows x64

內存:4G

spark版本:spark-1.6.0-bin-hadoop2.6

JDK版本:jdk1.7.0_031

spark安裝步驟:

          1.spark安裝包,下載地址 https://spark.apache.org/downloads.html

          2.解壓下載好的安裝包,似乎路徑最好不要含空格(沒有試過含空格會怎么樣)

          3.環境變量中配置SPARK_HOME,path中指定到SPARK_HOME下的bin目錄。

          4.現在運行的是本地模式,可以不用安裝hadoop,但是windows下需要配置HADOOP_HOME,并在HADOOP_HOME/bin下放一個winutils.exe的文件,具體見https://github.com/spring-projects/spring-hadoop/wiki/Using-a-Windows-client-together-with-a-Linux-cluster

           5.打開CMD,試試spark-shell命令能否運行成功。

           可能遇到問題1:關于xerces.jar包的問題,可能是jar包沖突導致,最直接解決辦法:重新下載一個jdk

           可能遇到問題2:spark-shell throws java.lang.RuntimeException: The root scratch dir: /tmp/hive on HDFS should be writable.這個錯誤,似乎是hive的一個BUG,具體可以見https://issues.apache.org/jira/browse/SPARK-10528

配置Eclipse的java開發環境:

            java開發spark程序是依賴一個jar,位于SPARK_HOME/lib/spark-assembly-1.6.0-hadoop2.6.0.jar,直接導入eclipse即可,spark運行只支持1.6以上java環

最后附上一個WordCount程序,是通過hdfs讀取和輸出的文件

SparkConf conf = new SparkConf().setAppName("WordCount").setMaster("local");

JavaSparkContext context = new JavaSparkContext(conf);

JavaRDD<String> textFile = context.textFile("hdfs://192.168.1.201:8020/data/test/sequence/sequence_in/file1.txt");
JavaRDD<String> words = textFile.flatMap(new FlatMapFunction<String, String>() {
    public Iterable<String> call(String s) {return Arrays.asList(s.split(" "));}
});
JavaPairRDD<String, Integer> pairs = words.mapToPair(new PairFunction<String, String, Integer>() {
    public Tuple2<String, Integer> call(String s) { return new Tuple2<String, Integer>(s, 1); }
});
JavaPairRDD<String, Integer> counts = pairs.reduceByKey(new Function2<Integer, Integer, Integer>() {
    public Integer call(Integer a, Integer b) { return a + b; }
});
counts.saveAsTextFile("hdfs://192.168.1.201:8020/data/test/sequence/sequence_out/");

以上是“windows下spark如何搭建”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

谷城县| 利川市| 沙河市| 格尔木市| 东阳市| 朔州市| 岚皋县| 九江县| 屏边| 台安县| 灌阳县| 玉门市| 寿光市| 吴旗县| 晋城| 金乡县| 界首市| 江达县| 荃湾区| 旅游| 三江| 承德县| 浮梁县| 浦江县| 利辛县| 台东县| 安多县| 吉水县| 微博| 高唐县| 岗巴县| 渑池县| 石泉县| 娄底市| 保德县| 龙门县| 秦皇岛市| 陆川县| 元朗区| 杭锦后旗| 扶沟县|