91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

6、MapReduce自定義分區實現

發布時間:2020-08-05 23:30:39 來源:網絡 閱讀:736 作者:victor19901114 欄目:大數據

MapReduce自帶的分區器是HashPartitioner
原理:先對map輸出的key求hash值,再模上reduce task個數,根據結果,決定此輸出kv對,被匹配的reduce任務取走。
6、MapReduce自定義分區實現
自定義分分區需要繼承Partitioner,復寫getpariton()方法
自定義分區類:
6、MapReduce自定義分區實現
注意:map的輸出是<K,V>鍵值對
其中int partitionIndex = dict.get(text.toString())partitionIndex是獲取K的值

附:被計算的的文本

Dear Dear Bear Bear River Car Dear Dear  Bear Rive
Dear Dear Bear Bear River Car Dear Dear  Bear Rive

需要在main函數中設置,指定自定義分區類
6、MapReduce自定義分區實現
自定義分區類:

import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Partitioner;
import java.util.HashMap;
public class CustomPartitioner extends Partitioner<Text, IntWritable> {
    public static HashMap<String, Integer> dict = new HashMap<String, Integer>();
    //Text代表著map階段輸出的key,IntWritable代表著輸出的值
    static{
        dict.put("Dear", 0);
        dict.put("Bear", 1);
        dict.put("River", 2);
        dict.put("Car", 3);
    }
    public int getPartition(Text text, IntWritable intWritable, int i) {
        //
        int partitionIndex = dict.get(text.toString());
        return partitionIndex;
    }
}

注意:map的輸出結果是鍵值對<K,V>,int partitionIndex = dict.get(text.toString());中的partitionIndex是map輸出鍵值對中的鍵的值,也就是K的值。
Maper類:

import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;

import java.io.IOException;

public class WordCountMap extends Mapper<LongWritable, Text, Text, IntWritable> {
    public void map(LongWritable key, Text value, Context context)
            throws IOException, InterruptedException {
        String[] words = value.toString().split("\t");
        for (String word : words) {
            // 每個單詞出現1次,作為中間結果輸出
            context.write(new Text(word), new IntWritable(1));
        }
    }
}

Reducer類:

import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;
import java.io.IOException;
public class WordCountMap extends Mapper<LongWritable, Text, Text, IntWritable> {
    public void map(LongWritable key, Text value, Context context)
            throws IOException, InterruptedException {
        String[] words = value.toString().split("\t");
        for (String word : words) {
            // 每個單詞出現1次,作為中間結果輸出
            context.write(new Text(word), new IntWritable(1));
        }
    }
}

main函數:

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
import java.io.IOException;
public class WordCountMain {
    public static void main(String[] args) throws IOException,
            ClassNotFoundException, InterruptedException {
        if (args.length != 2 || args == null) {
            System.out.println("please input Path!");
            System.exit(0);
        }
        Configuration configuration = new Configuration();
        configuration.set("mapreduce.job.jar","/home/bruce/project/kkbhdp01/target/com.kaikeba.hadoop-1.0-SNAPSHOT.jar");
        Job job = Job.getInstance(configuration, WordCountMain.class.getSimpleName());
        // 打jar包
        job.setJarByClass(WordCountMain.class);
        // 通過job設置輸入/輸出格式
        //job.setInputFormatClass(TextInputFormat.class);
        //job.setOutputFormatClass(TextOutputFormat.class);
        // 設置輸入/輸出路徑
        FileInputFormat.setInputPaths(job, new Path(args[0]));
        FileOutputFormat.setOutputPath(job, new Path(args[1]));
        // 設置處理Map/Reduce階段的類
        job.setMapperClass(WordCountMap.class);
        //map combine
        //job.setCombinerClass(WordCountReduce.class);
        job.setReducerClass(WordCountReduce.class);
        //如果map、reduce的輸出的kv對類型一致,直接設置reduce的輸出的kv對就行;如果不一樣,需要分別設置map, reduce的輸出的kv類型
        //job.setMapOutputKeyClass(.class)
        // 設置最終輸出key/value的類型m
        job.setOutputKeyClass(Text.class);
        job.setOutputValueClass(IntWritable.class);
        job.setPartitionerClass(CustomPartitioner.class);
        job.setNumReduceTasks(4);
        // 提交作業
        job.waitForCompletion(true);

    }
}

main函數參數設置:
6、MapReduce自定義分區實現

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

长沙县| 巨鹿县| 依兰县| 太康县| 绥滨县| 麻江县| 海原县| 祁连县| 昭通市| 阳山县| 合肥市| 山西省| 大英县| 荆门市| 葵青区| 无棣县| 卢龙县| 湛江市| 阿鲁科尔沁旗| 耿马| 肇州县| 韶关市| 策勒县| 新乐市| 阜南县| 德庆县| 信阳市| 湖口县| 徐闻县| 建宁县| 峡江县| 铁岭县| 永和县| 孟连| 韶关市| 西峡县| 九江市| 永清县| 高邮市| 西藏| 高密市|