91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么在Hadoop-1.2.1中跑wordcount

發布時間:2021-12-10 09:55:26 來源:億速云 閱讀:116 作者:iii 欄目:云計算

這篇文章主要介紹“怎么在Hadoop-1.2.1中跑wordcount”,在日常操作中,相信很多人在怎么在Hadoop-1.2.1中跑wordcount問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”怎么在Hadoop-1.2.1中跑wordcount”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!

1、在主目錄下創建兩個文本文件

[wukong@bd01 ~]$ mkdir test
[wukong@bd01 ~]$  cd test
[wukong@bd01 test]$ ls
[wukong@bd01 test]$ echo "hello world" >text1
[wukong@bd01 test]$ echo "hello hadoop" >text2
[wukong@bd01 test]$ cat text1
hello world
[wukong@bd01 test]$ cat text2
hello hadoop

2、啟動Hadoop

[wukong@bd01 bin]$ ./start-all.sh
starting namenode, logging to /home/wukong/a_usr/hadoop-1.2.1/libexec/../logs/ha doop-wukong-namenode-bd01.out
bd02: starting datanode, logging to /home/wukong/a_usr/hadoop-1.2.1/libexec/../l ogs/hadoop-wukong-datanode-bd02.out
bd01: starting secondarynamenode, logging to /home/wukong/a_usr/hadoop-1.2.1/lib exec/../logs/hadoop-wukong-secondarynamenode-bd01.out
starting jobtracker, logging to /home/wukong/a_usr/hadoop-1.2.1/libexec/../logs/ hadoop-wukong-jobtracker-bd01.out
bd02: starting tasktracker, logging to /home/wukong/a_usr/hadoop-1.2.1/libexec/. ./logs/hadoop-wukong-tasktracker-bd02.out
[wukong@bd01 bin]$ jps
1440 Jps
1132 NameNode
1280 SecondaryNameNode
1364 JobTracker

3、把新建的文件夾放到hdfs上

[wukong@bd01 ~]$ a_usr/hadoop-1.2.1/bin/hadoop fs -put ./test test_in
[wukong@bd01 ~]$ a_usr/hadoop-1.2.1/bin/hadoop fs -ls ./test_in
Found 2 items
-rw-r--r--   1 wukong supergroup         12 2014-07-31 15:38 /user/wukong/test_i n/text1
-rw-r--r--   1 wukong supergroup         13 2014-07-31 15:38 /user/wukong/test_i n/text2
[wukong@bd01 ~]$ a_usr/hadoop-1.2.1/bin/hadoop fs -ls
Found 1 items
drwxr-xr-x   - wukong supergroup          0 2014-07-31 15:38 /user/wukong/test_i n

4、跑wordcount程序

[wukong@bd01 hadoop-1.2.1]$ bin/hadoop jar hadoop-examples-1.2.1.jar wordcount t est_in test_out
14/07/31 15:43:44 INFO input.FileInputFormat: Total input paths to process : 2
14/07/31 15:43:44 INFO util.NativeCodeLoader: Loaded the native-hadoop library
14/07/31 15:43:44 WARN snappy.LoadSnappy: Snappy native library not loaded
14/07/31 15:43:46 INFO mapred.JobClient: Running job: job_201407311530_0001
14/07/31 15:43:47 INFO mapred.JobClient:  map 0% reduce 0%
14/07/31 15:44:11 INFO mapred.JobClient:  map 100% reduce 0%
14/07/31 15:44:27 INFO mapred.JobClient:  map 100% reduce 100%
14/07/31 15:44:29 INFO mapred.JobClient: Job complete: job_201407311530_0001
14/07/31 15:44:29 INFO mapred.JobClient: Counters: 29
14/07/31 15:44:29 INFO mapred.JobClient:   Job Counters
14/07/31 15:44:29 INFO mapred.JobClient:     Launched reduce tasks=1
14/07/31 15:44:29 INFO mapred.JobClient:     SLOTS_MILLIS_MAPS=43406
14/07/31 15:44:29 INFO mapred.JobClient:     Total time spent by all reduces wai ting after reserving slots (ms)=0
14/07/31 15:44:29 INFO mapred.JobClient:     Total time spent by all maps waitin g after reserving slots (ms)=0
14/07/31 15:44:29 INFO mapred.JobClient:     Launched map tasks=2
14/07/31 15:44:29 INFO mapred.JobClient:     Data-local map tasks=2
14/07/31 15:44:29 INFO mapred.JobClient:     SLOTS_MILLIS_REDUCES=14688
14/07/31 15:44:29 INFO mapred.JobClient:   File Output Format Counters
14/07/31 15:44:29 INFO mapred.JobClient:     Bytes Written=25
14/07/31 15:44:29 INFO mapred.JobClient:   FileSystemCounters
14/07/31 15:44:29 INFO mapred.JobClient:     FILE_BYTES_READ=55
14/07/31 15:44:29 INFO mapred.JobClient:     HDFS_BYTES_READ=239
14/07/31 15:44:29 INFO mapred.JobClient:     FILE_BYTES_WRITTEN=176694
14/07/31 15:44:29 INFO mapred.JobClient:     HDFS_BYTES_WRITTEN=25
14/07/31 15:44:29 INFO mapred.JobClient:   File Input Format Counters
14/07/31 15:44:29 INFO mapred.JobClient:     Bytes Read=25
14/07/31 15:44:29 INFO mapred.JobClient:   Map-Reduce Framework
14/07/31 15:44:29 INFO mapred.JobClient:     Map output materialized bytes=61
14/07/31 15:44:29 INFO mapred.JobClient:     Map input records=2
14/07/31 15:44:29 INFO mapred.JobClient:     Reduce shuffle bytes=61
14/07/31 15:44:29 INFO mapred.JobClient:     Spilled Records=8
14/07/31 15:44:29 INFO mapred.JobClient:     Map output bytes=41
14/07/31 15:44:29 INFO mapred.JobClient:     Total committed heap usage (bytes)= 417439744
14/07/31 15:44:29 INFO mapred.JobClient:     CPU time spent (ms)=2880
14/07/31 15:44:29 INFO mapred.JobClient:     Combine input records=4
14/07/31 15:44:29 INFO mapred.JobClient:     SPLIT_RAW_BYTES=214
14/07/31 15:44:29 INFO mapred.JobClient:     Reduce input records=4
14/07/31 15:44:29 INFO mapred.JobClient:     Reduce input groups=3
14/07/31 15:44:29 INFO mapred.JobClient:     Combine output records=4
14/07/31 15:44:29 INFO mapred.JobClient:     Physical memory (bytes) snapshot=41 8050048
14/07/31 15:44:29 INFO mapred.JobClient:     Reduce output records=3
14/07/31 15:44:29 INFO mapred.JobClient:     Virtual memory (bytes) snapshot=217 4017536
14/07/31 15:44:29 INFO mapred.JobClient:     Map output records=4

      跑完之后可以查看一下

[wukong@bd01 hadoop-1.2.1]$ bin/hadoop fs -ls
Found 2 items
drwxr-xr-x   - wukong supergroup          0 2014-07-31 15:38 /user/wukong/test_in
drwxr-xr-x   - wukong supergroup          0 2014-07-31 15:44 /user/wukong/test_out
[wukong@bd01 hadoop-1.2.1]$ a_usr/hadoop-1.2.1/bin/hadoop fs -ls ./test_out
-bash: a_usr/hadoop-1.2.1/bin/hadoop: No such file or directory
[wukong@bd01 hadoop-1.2.1]$ bin/hadoop fs -ls ./test_out
Found 3 items
-rw-r--r--   1 wukong supergroup          0 2014-07-31 15:44 /user/wukong/test_out/_SUCCESS
drwxr-xr-x   - wukong supergroup          0 2014-07-31 15:43 /user/wukong/test_out/_logs
-rw-r--r--   1 wukong supergroup         25 2014-07-31 15:44 /user/wukong/test_out/part-r-00000

5、最終的結果就在part-r-00000中!

[wukong@bd01 hadoop-1.2.1]$ bin/hadoop fs -cat ./test_out/part-r-00000
hadoop  1
hello   2
world   1

到此,關于“怎么在Hadoop-1.2.1中跑wordcount”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

石嘴山市| 安新县| 长兴县| 车险| 合水县| 金塔县| 宜丰县| 梨树县| 阿合奇县| 淳安县| 张家川| 温泉县| 光泽县| 西贡区| 鹿邑县| 湘西| 涿鹿县| 莱芜市| 天峻县| 荆州市| 荣昌县| 瑞丽市| 武乡县| 延庆县| 无锡市| 敦化市| 九寨沟县| 墨脱县| 曲松县| 阳曲县| 平顺县| 石嘴山市| 买车| 拉孜县| 清流县| 塔河县| 疏附县| 保靖县| 和龙市| 巴塘县| 鲜城|