91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

MapReduce中怎么實現倒排索引

發布時間:2021-06-24 17:38:24 來源:億速云 閱讀:334 作者:Leah 欄目:云計算

今天就跟大家聊聊有關MapReduce中怎么實現倒排索引,可能很多人都不太了解,為了讓大家更加了解,小編給大家總結了以下內容,希望大家根據這篇文章可以有所收獲。

需求: 為a, b, c 3個文本文件中的單詞建倒排索引

輸出格式: <word,"a:2,b:3,c:1">

a:

hello world
hello hadoop
hello world

b:

spark hadoop
hello hadoop
world hadoop

c:

spark world
hello world
hello spark

map階段

context.write("hello:a","1")
context.write("hello:a","1")
context.write("hello:a","1")

map階段輸出: <"hello:a",{1,1,1}>

combine階段

context.write("hello","a:3");
context.write("hello","b:1");
context.write("hello","c:2");

combine階段輸出: <"hello",{"a:3","b:1","c:2"}>

reduce階段

context.write("hello","a:3,b:1,c:2");

reduce階段輸出: <"hello","a:3,b:1,c:2">

定義Mapper類, 該類繼承org.apache.hadoop.mapreduce.Mapper

并重寫map()方法

public class IIMapper extends Mapper<LongWritable, Text, Text, Text> {
  @Override
  protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
   String line = value.toString();
   String[] words = StringUtils.split(line, " ");
   // 從context中獲取文件切片inputSplit
   FileSplit inputSplit = (FileSplit) context.getInputSplit();
   // 從inputSplit中獲取文件的絕對路徑path
   String path = inputSplit.getPath().toString();
   int index = path.lastIndexOf("/");
   // 從path中截取文件名
   String fileName = path.substring(index + 1);
   for (String word : words) {
    context.write(new Text(word + ":" + fileName), new Text("1"));
   }
   // map輸出結果 <"hello:a",{1,1,1}>
  }
 }

定義Combiner類, 該類繼承org.apache.hadoop.mapreduce.Reducer

combine階段是map階段和reduce階段的中間過程

并重寫reduce()方法

 public class IICombiner extends Reducer<Text, Text, Text, Text> {
  @Override
  protected void reduce(Text key, Iterable<Text> values, Context context)
    throws IOException, InterruptedException {
   String[] data = key.toString().split(":");
   String word = data[0];
   String fileName = data[1];
   int count = 0;
   for (Text value : values) {
    count += Integer.parseInt(value.toString());
   }
   context.write(new Text(word), new Text(fileName + ":" + count));
   // combine輸出結果 <"hello",{"a:3","b:1","c:2"}>
  }
 }

定義Reducer類, 該類繼承org.apache.hadoop.mapreduce.Reducer

并重寫reduce()方法

 public class IIReducer extends Reducer<Text, Text, Text, Text> {
  @Override
  protected void reduce(Text key, Iterable<Text> values, Context context)
    throws IOException, InterruptedException {
   StringBuilder sb = new StringBuilder();
   for (Text value : values) {
    sb.append(value.toString() + "\t");
   }
   context.write(key, new Text(sb.toString()));
   // reduce輸出結果 <"hello","a:3,b:1,c:2">
  }
 }

測試倒排索引

 public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
  Job job = Job.getInstance(new Configuration());
  job.setJarByClass(InverseIndexRunner.class);    // 設置job的主類
  job.setMapperClass(IIMapper.class);    // 設置Mapper類
  job.setCombinerClass(IICombiner.class);    // 設置Combiner類
  job.setReducerClass(IIReducer.class);    // 設置Reducer類
  job.setMapOutputKeyClass(Text.class);    // 設置map階段輸出Key的類型
  job.setMapOutputValueClass(Text.class);    // 設置map階段輸出Value的類型
  job.setOutputKeyClass(Text.class);    // 設置reduce階段輸出Key的類型
  job.setOutputValueClass(Text.class);    // 設置reduce階段輸出Value的類型
  // 設置job輸入路徑(從main方法參數args中獲取)
  FileInputFormat.setInputPaths(job, new Path(args[0]));
  // 設置job輸出路徑(從main方法參數args中獲取)
  FileOutputFormat.setOutputPath(job, new Path(args[1]));
  job.waitForCompletion(true);    // 提交job
 }

job輸出的結果文件:

hadoop    a:1 b:3 
hello    b:1 c:2 a:3 
spark    b:1 c:2 
world    c:2 b:1 a:2

看完上述內容,你們對MapReduce中怎么實現倒排索引有進一步的了解嗎?如果還想了解更多知識或者相關內容,請關注億速云行業資訊頻道,感謝大家的支持。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

高邑县| 长葛市| 饶平县| 济宁市| 岫岩| 祁连县| 延安市| 雷波县| 福建省| 土默特左旗| 济南市| 玉龙| 荆州市| 龙泉市| 两当县| 东兴市| 邢台市| 通渭县| 神农架林区| 鹰潭市| 兴宁市| 阿坝| 宁河县| 丽水市| 广昌县| 达州市| 康乐县| 玉树县| 阿拉尔市| 融水| 长武县| 雅江县| 昭平县| 福安市| 积石山| 吉水县| 龙南县| 延庆县| 乐昌市| 宁化县| 峨眉山市|