您好,登錄后才能下訂單哦!
今天就跟大家聊聊有關MapReduce中怎么實現倒排索引,可能很多人都不太了解,為了讓大家更加了解,小編給大家總結了以下內容,希望大家根據這篇文章可以有所收獲。
需求: 為a, b, c 3個文本文件中的單詞建倒排索引
輸出格式: <word,"a:2,b:3,c:1">
a:
hello world
hello hadoop
hello world
b:
spark hadoop
hello hadoop
world hadoop
c:
spark world
hello world
hello spark
map階段
context.write("hello:a","1") context.write("hello:a","1") context.write("hello:a","1")
map階段輸出: <"hello:a",{1,1,1}>
combine階段
context.write("hello","a:3"); context.write("hello","b:1"); context.write("hello","c:2");
combine階段輸出: <"hello",{"a:3","b:1","c:2"}>
reduce階段
context.write("hello","a:3,b:1,c:2");
reduce階段輸出: <"hello","a:3,b:1,c:2">
定義Mapper類, 該類繼承org.apache.hadoop.mapreduce.Mapper
并重寫map()方法
public class IIMapper extends Mapper<LongWritable, Text, Text, Text> { @Override protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { String line = value.toString(); String[] words = StringUtils.split(line, " "); // 從context中獲取文件切片inputSplit FileSplit inputSplit = (FileSplit) context.getInputSplit(); // 從inputSplit中獲取文件的絕對路徑path String path = inputSplit.getPath().toString(); int index = path.lastIndexOf("/"); // 從path中截取文件名 String fileName = path.substring(index + 1); for (String word : words) { context.write(new Text(word + ":" + fileName), new Text("1")); } // map輸出結果 <"hello:a",{1,1,1}> } }
定義Combiner類, 該類繼承org.apache.hadoop.mapreduce.Reducer
combine階段是map階段和reduce階段的中間過程
并重寫reduce()方法
public class IICombiner extends Reducer<Text, Text, Text, Text> { @Override protected void reduce(Text key, Iterable<Text> values, Context context) throws IOException, InterruptedException { String[] data = key.toString().split(":"); String word = data[0]; String fileName = data[1]; int count = 0; for (Text value : values) { count += Integer.parseInt(value.toString()); } context.write(new Text(word), new Text(fileName + ":" + count)); // combine輸出結果 <"hello",{"a:3","b:1","c:2"}> } }
定義Reducer類, 該類繼承org.apache.hadoop.mapreduce.Reducer
并重寫reduce()方法
public class IIReducer extends Reducer<Text, Text, Text, Text> { @Override protected void reduce(Text key, Iterable<Text> values, Context context) throws IOException, InterruptedException { StringBuilder sb = new StringBuilder(); for (Text value : values) { sb.append(value.toString() + "\t"); } context.write(key, new Text(sb.toString())); // reduce輸出結果 <"hello","a:3,b:1,c:2"> } }
測試倒排索引
public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException { Job job = Job.getInstance(new Configuration()); job.setJarByClass(InverseIndexRunner.class); // 設置job的主類 job.setMapperClass(IIMapper.class); // 設置Mapper類 job.setCombinerClass(IICombiner.class); // 設置Combiner類 job.setReducerClass(IIReducer.class); // 設置Reducer類 job.setMapOutputKeyClass(Text.class); // 設置map階段輸出Key的類型 job.setMapOutputValueClass(Text.class); // 設置map階段輸出Value的類型 job.setOutputKeyClass(Text.class); // 設置reduce階段輸出Key的類型 job.setOutputValueClass(Text.class); // 設置reduce階段輸出Value的類型 // 設置job輸入路徑(從main方法參數args中獲取) FileInputFormat.setInputPaths(job, new Path(args[0])); // 設置job輸出路徑(從main方法參數args中獲取) FileOutputFormat.setOutputPath(job, new Path(args[1])); job.waitForCompletion(true); // 提交job }
job輸出的結果文件:
hadoop a:1 b:3
hello b:1 c:2 a:3
spark b:1 c:2
world c:2 b:1 a:2
看完上述內容,你們對MapReduce中怎么實現倒排索引有進一步的了解嗎?如果還想了解更多知識或者相關內容,請關注億速云行業資訊頻道,感謝大家的支持。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。