91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

hadoop WordCount案例分析

發布時間:2021-12-10 10:03:52 來源:億速云 閱讀:131 作者:iii 欄目:云計算

這篇文章主要講解了“hadoop WordCount案例分析”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“hadoop WordCount案例分析”吧!

public class WordCount {
  public static class TokenizerMapper extends Mapper<Object, Text, Text, IntWritable>{
  
    private final static IntWritable one = new IntWritable(1);
   
    private Text word = new Text();
    //TextInput默認設置是讀取一行數據,map階段是按照我們的需求將讀取到的每一行進行分割。
    public void map(Object key, Text value, Context context) throws IOException, InterruptedException {
     StringTokenizer line = new StringTokenizer(value.toString());
     while(line.hasMoreTokens()){
      word.set(line.nextToken());
      context.write(word, one);
     }
    }
  }
  //在reduce階段,是map階段分割后的經過排序后的數據向reduce任務中copy的過程,在此過程中會有一個背景線程將相同的key值進行合并,并將其value值歸并到一個類似集合的容器中,此時的邏輯就是我們要遍歷這個容器中的數據,計算它的值,然后輸出。
  public static class IntSumReducer extends Reducer<Text,IntWritable,Text,IntWritable> {
  
    private IntWritable result = new IntWritable();

    public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {
      int sum = 0;
      for (IntWritable val : values) {
       sum+=val.get();
 }
      result.set(sum);
      context.write(key, result);
    }
  }

  public static void main(String[] args) throws Exception {
    Configuration conf = new Configuration();
    String[] otherArgs = new GenericOptionsParser(conf, args).getRemainingArgs();
    if (otherArgs.length != 2) {
      System.err.println("Usage: wordcount <in> <out>");
      System.exit(2);
    }
    Job job = new Job(conf, "word count");
    job.setJarByClass(WordCount.class);
    job.setMapperClass(TokenizerMapper.class);
    job.setCombinerClass(IntSumReducer.class);
    job.setReducerClass(IntSumReducer.class);
    job.setOutputKeyClass(Text.class);
    job.setOutputValueClass(IntWritable.class);
    FileInputFormat.addInputPath(job, new Path(otherArgs[0]));
    FileOutputFormat.setOutputPath(job, new Path(otherArgs[1]));
    System.exit(job.waitForCompletion(true) ? 0 : 1);
  }
}

感謝各位的閱讀,以上就是“hadoop WordCount案例分析”的內容了,經過本文的學習后,相信大家對hadoop WordCount案例分析這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

鸡泽县| 文山县| 凤城市| 迭部县| 迁安市| 全椒县| 杭锦后旗| 葵青区| 大同市| 甘泉县| 贵阳市| 马龙县| 富裕县| 旬阳县| 交口县| 通海县| 尚义县| 聊城市| 得荣县| 库车县| 定南县| 麻城市| 安阳县| 六盘水市| 高尔夫| 民权县| 彭泽县| 通许县| 微山县| 沅江市| 长顺县| 合江县| 琼海市| 高安市| 姜堰市| 宁德市| 新闻| 琼结县| 京山县| 鄂托克前旗| 富蕴县|