91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Apache Hadoop 入門教程第三章

發布時間:2020-07-19 19:34:02 來源:網絡 閱讀:340 作者:哈斗篷 欄目:大數據

免密碼 ssh 設置

現在確認能否不輸入口令就用 ssh 登錄 localhost:

$ ssh localhost
1
如果不輸入口令就無法用 ssh 登陸 localhost,執行下面的命令:

$ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
$ chmod 0600 ~/.ssh/authorized_keys
1
2
3
執行

下面演示本地運行一個 MapReduce 的 job,以下是運行步驟。

(1)格式化一個新的分布式文件系統:

$ bin/hdfs namenode -format
1
(2)啟動 NameNode 守護進程和 DataNode 守護進程:

$ sbin/start-dfs.sh
1
Hadoop 守護進程的日志寫入到 $HADOOP_LOG_DIR目錄(默認是 $HADOOP_HOME/logs)

(3)瀏覽 NameNode 的網絡接口,它們的地址默認為:

NameNode - http://localhost:50070/
1
(4)創建 HDFS 目錄來執行 MapReduce 的 job:

$ bin/hdfs dfs -mkdir /user
$ bin/hdfs dfs -mkdir /user/<username>
1
2
(5)將輸入文件拷貝到分布式文件系統:

$ bin/hdfs dfs -put etc/hadoop input
1
(6)運行發行版提供的示例程序:

$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar grep input output 'dfs[a-z.]+'
1
(7)查看輸出文件

將輸出文件從分布式文件系統拷貝到本地文件系統查看:

$ bin/hdfs dfs -get output output
$ cat output/*****
1
2
或者,在分布式文件系統上查看輸出文件:

$ bin/hdfs dfs -cat output/*
1
(8)完成全部操作后,停止守護進程:

$ sbin/stop-dfs.sh
**需要學習的可以繼續看下一章。**

很多人都知道我有大數據培訓資料,都天真的以為我有全套的大數據開發、hadoop、spark等視頻學習資料。我想說你們是對的,我的確有大數據開發、hadoop、spark的全套視頻資料。
如果你對大數據開發感興趣可以加口群領取免費學習資料: 763835121

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

金溪县| 南雄市| 蒲江县| 遵义县| 万全县| 阳江市| 九龙城区| 武邑县| 平乡县| 鄂托克旗| 沛县| 南投县| 名山县| 新丰县| 林甸县| 二连浩特市| 嵊泗县| 吉木萨尔县| 鲁甸县| 石首市| 岐山县| 青州市| 改则县| 华安县| 怀化市| 彰化县| 弋阳县| 义马市| 马尔康县| 北宁市| 邮箱| 抚松县| 海门市| 东丽区| 论坛| 固原市| 台南市| 息烽县| 云梦县| 淮北市| 赤峰市|